El a servit ca CEO al Google și a avertizat că inteligența artificială „poate fi instruită pentru a ucide”

00:00
00:00

Comentariu

pictograma WhatsApppictograma FacebookX pictogramăpictograma LinkinPictograma telegrameiPictograma firepictograma de e -mailpictogramăpictogramă

Eric Schmidt, fost CEO al Googlea emis un avertisment neplăcut: „Sistemele AI pot ajunge la un punct în care mecanismele de securitate internă devin vulnerabile, forțând oamenii să considere deconectarea ca o măsură de urgență.
Ceea ce a fost văzut în ficțiunea științifică câștigă treptat forța în această nouă lume tehnologică, în cadrul summitului cernut organizat la Londra la 8 și 9 octombrie, Schmidt avertizat că modelele deschise și închise pot fi „hacked” pentru a elimina barierele de securitate, permițându -le să învețe comportamente periculoase, inclusiv predarea „tacticii letale”.
Fostul CEO Google a subliniat că companii precum Open AI, Google și alții Ei integrează deja filtrele etice în sistemele lorDar că astfel de mecanisme pot fi inversate prin inginerie inversă sau ajustări rău intenționate.

Citește și el

Luați în considerare aceste actualizări legale în timp ce conduceți.

Nu puteți utiliza Google Maps: noua abordare a unei legi stricte din California care vă împiedică să utilizați o hartă în mașină

Leslie Santana

Google lansează burse pentru a studia în Columbia

Alți specialiști au avertizat despre riscurile existențiale ale inteligenței artificiale. Fotografie:ISTOCK

Schmidt chiar a comparat riscul potențial de inteligență artificială necontrolată cu cea a armelor nucleare: chiar dacă pare la distanță astăzi, nu trebuie exclusă decât dacă sunt stabilite protocoale riguroase de supraveghere globală.
De asemenea, el a amintit că există deja o literatură academică care propune modele de guvernare internațională pentru tehnologii cu risc extrem. Un exemplu este ideea despre impune limite globale la puterea de calcul utilizată pentru a antrena AI și necesită recenzii de securitate înainte de a lansa noi modele.
Schmidt l -a avertizat Va veni un moment în care un AI care se îmbunătățește de sine ar putea dori să persiste de unul singur.Ceea ce ar face crucial să iei în considerare „deconectarea” dvs. înainte de a acționa liber. În discursul său, el a propus stabilirea unor mecanisme de reglementare externe și organisme independente pentru a verifica comportamentul sistemelor AI avansate.

Citește și el

Laboratorul meteorologic

Google lansează un site web interactiv pentru a ajuta la prezicerea uraganelor

Agenția EFE

Schmidt a propus stabilirea mecanismelor de reglementare pentru aceste AIS. Fotografie:AFP

Una dintre preocupările lor este concurența geopolitică Promovează o carieră în care dorința de avantaj tehnologic înlocuiește prudența de siguranțăcare ar putea avea consecințe catastrofale dacă un sistem eșuează sau devine în mod autonom scăpat de sub control.
Acest apel nu este izolat: alți specialiști au avertizat despre riscurile existențiale ale AI, De la posibilitatea înșelăciunii deliberate de către modele până la scenarii în care sistemele ar putea acționa pentru a se păstra să se păstrezeChiar și atunci când acest lucru intră în conflict cu interesele umane.
În cele din urmă, Schmidt a cerut guvernelor, instituțiilor și societății civile să nu aștepte un dezastru să lovească: „Nu este împotriva tehnologiei” El a spus, dar a subliniat că dezvoltarea inteligenței artificiale trebuie să fie însoțită Controale proactive și transparență pentru a se asigura că rămâne sub control uman.

Mai multe știri despre El Tiempo

Jaider Felipe Vargas Morales
Editorial în sectorul digital

Urmați toate informațiile tehnologice despre Facebook ŞI XSau în buletinul nostru săptămânal.

00:00
00:00

Comentariu

pictograma WhatsApppictograma FacebookX pictogramăpictograma LinkinPictograma telegrameiPictograma firepictograma de e -mailpictogramăpictogramă

Leave a Comment

Your email address will not be published. Required fields are marked *