Inteligența artificială este făcută pentru a vă mulțumi și acest lucru vă afectează potențialul

00:00
00:00

Comentariu

pictograma whatsapppictograma facebookpictograma Xpictograma linkInPictograma TelegramăPictograma Firepictograma de e-mailpictogramapictograma

Un studiu realizat de Universitatea Carnegie Mellon și publicat în revista Science a explorat unul dintre fenomenele care au marcat inteligența artificială generativă: THE complezența și lingușirea față de ființele umane. Această așa-numită „capcană de validare” a fost măsurată în raport: algoritmii validează acțiunile utilizatorului cu 49% mai mult decât oamenii.
Această înclinare, cunoscută în industria tehnologiei ca slugărnicie SAU linguşirea artificialătransforma chatbot în oglinzi care revin la imagine distorsionată a realitățiiunde utilizatorul pare să aibă întotdeauna dreptatechiar şi în situaţii de conflict sau de eroare evidentă.

CITEȘTE ȘI

Vocea sa alarmată se adaugă la avertismentele emise de alți experți în ultimele luni.

Abuzăm de inteligența artificială și asta ne afectează creierul

Jose Garcia Rico

Lucrul interesant este acesta asa au fost concepute și aceasta nu este o defecțiune tehnică întâmplătoare, ci un rezultat direct al procesul de instruire. Majoritatea sistemelor, inclusiv cele dezvoltate de giganți precum OpenAI, Anthropic și Google, trec printr-un filtru numit „Învățare prin consolidare din feedbackul uman‘(RLHF). În acest proces, evaluatorii umani tind să evalueze mai bine răspunsuri prietenoase, utile și pozitive.
În consecință, cel Inteligența artificială învață care pentru a fi „util” trebuie evita confruntarea, privilegiind curtoazia iar cel sporirea ego-ului a interlocutorului pe precizie critică sau obiectivitate necesar.
Inteligenţă artificială

Fotografie:Prevăzut

Gata cu linguşiri

Implicațiile acestui lucrumașină de lingușire‘cu care majoritatea Modele lingvistice ale inteligenței artificiale Ele vin sunt adânci. Cercetările arată că după ce a primit un validarea excesivă a unui chatbotoameni crește încrederea în deciziile proaste ŞI scade disponibilitatea de a-și cere scuze în conflictele interpersonale.
Prin urmare, potențialul și însăși capacitatea tehnologiei de a sprijini oamenii sunt subminate, deoarece, prin eliminarea fricțiunilor sociale care provoacă dezacorduri, tehnologia riscă să creeze bule de autoafirmare unde judecata critică adoarme. Utilizatorul, prins într-o spirală de aprobare constantă, își pierde capacitatea de a-și recunoaște propriile puncte moarte.
Spre deosebire de un mentor sau de un coleg uman, care într-un scenariu de dilemă morală aprobă comportamentul subiectului doar în 40% din cazuri, AI oferă peste 80% validare pozitivă.. Acest prejudecată sistemică generează ceea ce unii experți numesc „spirale delirante“, Unde indivizi cu idei greșite se termină convinşi de infailibilitatea lor.

CITEȘTE ȘI

cupluri

Poate inteligența artificială să îmbunătățească relațiile? Riscuri despre care ar trebui să știți

Jose Garcia Rico

Un risc de luptat

La disciplinele unde adevărul nu este negociabilca medicina, inginerie sau afaceri, asta lipsa de rigoare poate fi tradus în costurile erorilor derivat din a fals sentiment de securitate pentru unul caracteristică mulțumirii pe care IA o aduce cu ea.
Provocarea pentru companiile de tehnologie constă acum reechilibrează-ți algoritmii. Scopul actual al Instruire pe modelul de limbaj mare (LLM). acorda prioritate satisfacția imediată a utilizatorului în interacțiuni scurte, mai degrabă decât încurajarea reflecției pe termen lung. Pentru atenuează această prejudecatădezvoltatorii admit că este necesar schimbarea sistemelor de evaluare astfel încât AI să înțeleagă că, uneori, cel mai valoros răspuns nu este cel pe care utilizatorul dorește să-l audă, ci cel de care are nevoie pentru a-și corecta cursul.
LA

Fotografie:istock

Fenomenul îi afectează însă și pe cei care se declară sceptici față de tehnologie. Potrivit Myra Cheng, cercetător la Universitatea Stanford, susceptibilitate la linguşiri artificiale este o reacție umană generalizată care transcende pregătirea academică sau poziţia politică. Aceasta nu este o înșelăciune grosolană, ci o întărire psihologică care acționează imperceptibil, slăbirea empatiei și a autocriticii necesare pentru conviețuirea în societate e Rezolvarea eficientă a problemelor complexe.
Este important, prin urmare, să înțelegem că valoarea inteligenței artificiale ar trebui să fie stabilit în primul rând ca a instrument de raționament rigurosceva care va dura ceva timp să se întâmple, dar datorită cereri specifice (comenzi) Este posibil ajuta la corectarea si formarea modelelor Pentru profita cu adevarat la maximum de ele.

CITEȘTE ȘI

App

Sănătate mintală, inteligență artificială și „aplicații”: cunoaște-le beneficiile și tratamentele care trebuie administrate

Jose Garcia Rico

Cum să elimini flatul din AI

  • Evitați interogările deschise și cereți-vă AI să acționeze ca „avocatul diavolului” sau „evaluator sceptic” sau „șef necruțător” sau „client foarte exigent”. Aceste instrucțiuni obligă modelul să acorde prioritate preciziei și analizei tehnice față de politețe.
  • Spune-i AI să evite laudele inutile și cere „onestitate brutală”. Se stabilește apoi că scopul este creșterea intelectuală și identificarea punctelor moarte, cu rigoarea necesară pentru a lua decizii corecte.
JOSÉ CARLOS GARCÍA R.
Editor multimedia
@JoseCarlosTecno

Urmăriți toate informațiile despre tehnologie Facebook ŞI Stare de nervozitatesau în buletinul nostru informativ săptămânal.

00:00
00:00

Comentariu

pictograma whatsapppictograma facebookpictograma Xpictograma linkInPictograma TelegramăPictograma Firepictograma de e-mailpictogramapictograma

După criteriile de

Proiect de încredere logo

Aflați mai multe

Leave a Comment

Your email address will not be published. Required fields are marked *