Utilizarea chatbots bazat pe inteligenţă artificială consultarea unui medic poate prezenta un risc pentru pacienți.
Potrivit unui studiu publicat luni în revista „Nature Medicine” și realizat de cercetătorii de la Universitatea din Oxford, Utilizatorii tind să furnizeze informații inexacte și inconsecvente.
CITEȘTE ȘI

Experții ibero-americani avertizează asupra riscului ca învățarea să fie înlocuită de inteligența artificială
Mateo Chacón Orduz
Cercetarea, dezvoltată de Oxford Internet Institute și Nuffield Department of Primary Health Sciences, a evidențiat că există un decalaj semnificativ între promisiunea modelelor de limbaj mari (LLM) și utilitatea lor reală pentru persoanele care caută informații despre simptome sau posibile boli.
Potrivit constatărilor, cei care au apelat la sisteme de inteligență artificială pentru a evalua severitatea o condiție și a decide ce acțiune să întreprindă nu a făcut mai bine decât cei care au folosit metode tradiționalecum ar fi să cauți informații pe internet sau să ai încredere în propria ta judecată.
Echipa a efectuat un studiu randomizat cu aproximativ 1.300 de participanți. Fotografie:iStock.
Evaluare cu utilizatori reali
Pentru a testa aceste instrumente, echipa a efectuat un studiu randomizat cu aproape 1.300 de participanți.
Voluntarii au fost rugați să identifice posibile afecțiuni medicale și să le recomande cum să acționezi în diferite scenarii clinice, concepute de medici.
Cazurile au inclus situații precum o persoană tânără cu o durere de cap severă după o noapte în oraș sau o proaspătă mamă care se confruntă cu oboseală constantă și dificultăți de respirație.
Un grup a fost asistat de un LLM, în timp ce grupul de control a folosit surse convenționale de informații.
CITEȘTE ȘI

Crearea de cariere în inteligența artificială a crescut cu 360% în patru ani: radiografie a „boom-ului” acestor programe în universitățile din Columbia
Mateo Chacón Orduz
Eșecuri în interacțiunea dintre oameni și inteligența artificială
Analiza interacțiunilor a evidențiat probleme semnificative în ambele direcții.
În multe cazuri, participanții au furnizat informații incomplete modelelor, în timp ce LLM-urile au generat răspunsuri cu date sau recomandări incorecte care Au combinat sfatul adecvat cu sfatul potențial dăunător.
LLM-urile actuale nu sunt pregătite pentru implementarea directă în îngrijirea pacientului. Fotografie:iStock
Andrew Bean, autorul principal al studiului și cercetător doctorat la Oxford Internet Institute, a subliniat că „Proiectarea de teste robuste pentru modele lingvistice este esențială pentru a înțelege cum putem profita de această nouă tehnologie“.
El a adăugat că „interacțiunea cu oamenii este o provocare chiar și pentru cele mai bune modele”.
CITEȘTE ȘI

Cinci tendințe tehnologice pentru a integra inteligența digitală în companiile din America Latină
Timp editorial
Avertismente înainte de utilizare clinică
În lumina constatărilor, autorii consideră că actualele LLM nu sunt pregătite pentru implementarea directă în îngrijirea pacienților și susțin că, la fel ca medicamentele, Sistemele AI ar trebui testate riguros în medii reale înainte de adoptare.
*Acest conținut a fost scris cu ajutorul inteligenței artificiale, pe baza informațiilor cunoscute public dezvăluite presei. În plus, a fost revizuită de jurnalistă și de un editor.
JOS GUERRRERO
EDITORIAL CU SCOP DIGITAL
Mai multe noutăți
Urmăriți toate informațiile despre tehnologie Facebook ŞI Stare de nervozitatesau în buletinul nostru informativ săptămânal.







