Eric Schmidt, fost CEO al Googlea emis un avertisment neplăcut: „Sistemele AI pot ajunge la un punct în care mecanismele de securitate internă devin vulnerabile, forțând oamenii să considere deconectarea ca o măsură de urgență–.
Ceea ce a fost văzut în ficțiunea științifică câștigă treptat forța în această nouă lume tehnologică, în cadrul summitului cernut organizat la Londra la 8 și 9 octombrie, Schmidt avertizat că modelele deschise și închise pot fi „hacked” pentru a elimina barierele de securitate, permițându -le să învețe comportamente periculoase, inclusiv predarea „tacticii letale”.
Fostul CEO Google a subliniat că companii precum Open AI, Google și alții Ei integrează deja filtrele etice în sistemele lorDar că astfel de mecanisme pot fi inversate prin inginerie inversă sau ajustări rău intenționate.
Citește și el

Nu puteți utiliza Google Maps: noua abordare a unei legi stricte din California care vă împiedică să utilizați o hartă în mașină
Leslie Santana
Alți specialiști au avertizat despre riscurile existențiale ale inteligenței artificiale. Fotografie:ISTOCK
Schmidt chiar a comparat riscul potențial de inteligență artificială necontrolată cu cea a armelor nucleare: chiar dacă pare la distanță astăzi, nu trebuie exclusă decât dacă sunt stabilite protocoale riguroase de supraveghere globală.
De asemenea, el a amintit că există deja o literatură academică care propune modele de guvernare internațională pentru tehnologii cu risc extrem. Un exemplu este ideea despre impune limite globale la puterea de calcul utilizată pentru a antrena AI și necesită recenzii de securitate înainte de a lansa noi modele.
Schmidt l -a avertizat Va veni un moment în care un AI care se îmbunătățește de sine ar putea dori să persiste de unul singur.Ceea ce ar face crucial să iei în considerare „deconectarea” dvs. înainte de a acționa liber. În discursul său, el a propus stabilirea unor mecanisme de reglementare externe și organisme independente pentru a verifica comportamentul sistemelor AI avansate.
Citește și el

Google lansează un site web interactiv pentru a ajuta la prezicerea uraganelor
Agenția EFE
Schmidt a propus stabilirea mecanismelor de reglementare pentru aceste AIS. Fotografie:AFP
Una dintre preocupările lor este concurența geopolitică Promovează o carieră în care dorința de avantaj tehnologic înlocuiește prudența de siguranțăcare ar putea avea consecințe catastrofale dacă un sistem eșuează sau devine în mod autonom scăpat de sub control.
Acest apel nu este izolat: alți specialiști au avertizat despre riscurile existențiale ale AI, De la posibilitatea înșelăciunii deliberate de către modele până la scenarii în care sistemele ar putea acționa pentru a se păstra să se păstrezeChiar și atunci când acest lucru intră în conflict cu interesele umane.
În cele din urmă, Schmidt a cerut guvernelor, instituțiilor și societății civile să nu aștepte un dezastru să lovească: „Nu este împotriva tehnologiei” El a spus, dar a subliniat că dezvoltarea inteligenței artificiale trebuie să fie însoțită Controale proactive și transparență pentru a se asigura că rămâne sub control uman.
Mai multe știri despre El Tiempo
Jaider Felipe Vargas Morales
Editorial în sectorul digital
Urmați toate informațiile tehnologice despre Facebook ŞI XSau în buletinul nostru săptămânal.







