Un audit tehnic efectuat de firma de securitate cibernetică Tenable a relevat existența șapte vulnerabilități critice în ChatGPTdenumită colectiv GPT compromis.
Aceste defecțiuni reprezintă un risc semnificativ pentru milioane de utilizatori zilnici de sistem, permițând furtul datelor cu caracter personal prin diferite tehnici de atac.
CITEȘTE ȘI

Inteligența artificială revoluționează robotica: umanoizi mai realiști și o nouă eră tehnologică în curs
Johan Infante Guerrero
Potrivit raportului, vulnerabilitățile detectate pot fi folosite pentru a ocoli mecanismele de protecție ale platformei și pentru a forma un lanț complet de intruziuni, de la injectarea de comandă până la exfiltrarea informațiilor sensibile.
Experții avertizează că ChatGPT poate fi folosit ca instrument de atac cibernetic.
Fotografie:de ex
CITEȘTE ȘI

Norul merge în spațiu: acestea sunt proiectele în afara Pământului pe care Google și Nvidia le au pentru a îmbunătăți inteligența artificială
Maria Salas Valencia
Cele șapte vulnerabilități ChatGPT
- Injectare indirectă prin site-uri de încredere: Atacatorii ascund instrucțiuni în conținutul online legitim. Când ChatGPT accesează acest material prin instrumentul său web, execută din greșeală comenzi ascunse, compromițând sesiunea utilizatorului.
- Căutare prin injecție indirectă 0-clic: Acest tip de atac nu necesită nicio interacțiune. Prin solicitarea unei căutări, modelul, prin SearchGPT, poate găsi pagini cu cod rău intenționat, declanșând scurgeri de date cu o „unică declarație”.
- Injecție rapidă printr-un clic: Folosind linkuri aparent sigure, atacatorii determină ChatGPT să execute comenzi după ce fac clic o dată, permițându-le să preia controlul asupra chatului.
- Bypass mecanism de siguranță: Folosind adrese URL de încredere, cum ar fi cele de la Bing, atacatorii pot ocoli filtrele de sistem și redirecționează utilizatorul către site-uri rău intenționate fără ca modelul să le detecteze.
- Injecție de conversație: Atacatorii exploatează navigarea modelului pentru a include comenzi în fluxul de dialog, determinând ChatGPT să execute instrucțiuni pe care utilizatorul nu le-a introdus niciodată.
- Ascunde conținut dăunător: Un defect în formatarea reducerii face posibilă ascunderea declarațiilor rău intenționate în blocuri de cod. În timp ce utilizatorul vede text simplu, sistemul execută comenzi invizibile.
- Injecție persistentă cu memorie: Această metodă introduce comenzi stocate în memoria pe termen lung a ChatGPT, care menține amenințarea activă chiar și după ce închideți aplicația.
Atacurile includ injectarea indirectă, bypass-ul de securitate și memoria persistentă. Fotografie:iStock
CITEȘTE ȘI

OpenAI și Amazon Web Services semnează o alianță strategică de 38 de miliarde de dolari pentru a promova inteligența artificială avansată
Maria Salas Valencia
Riscuri și stare de atenuare
Tenable a avertizat că dacă aceste defecte ar fi combinate, atacatorii ar putea profita istoriile conversațiilor, manipulați răspunsurile sau exfiltrați informații private.
Deși OpenAI a remediat unele dintre probleme, multe dintre vulnerabilități rămân neremediate în versiunea GPT-5, forțând utilizatorii să mențină măsuri de precauție suplimentare.
La Nación (Argentina) / GDA
Mai multe știri pe EL TIEMPO
*Acest conținut a fost rescris cu ajutorul inteligenței artificiale, pe baza informațiilor din La Nación, și a fost revizuit de un jurnalist și un editor.
Urmăriți toate informațiile despre tehnologie Facebook ŞI Xsau în buletinul nostru informativ săptămânal.







