TEHNOLOGIE

BOOM: Ipocrizia „riscului de dispariție” denunțată de șefii inteligenței artificiale

BOOM: Ipocrizia „riscului de dispariție” denunțată de șefii inteligenței artificiale

Directorii OpenAI, Google DeepMind, Anthropic și alte companii similare au anunțat că inteligența artificială ar putea reprezenta într-o zi un pericol comparabil cu pandemia din 2019, dacă nu chiar cu armele nucleare. 

Nu este prima dată când liderii din industrie aruncă combustibil pe alarmismul nestăpânit și cu siguranță nu va fi ultima, totuși preocuparea lor nu face decât să polueze discursul public, distorcând atenția de la adevăratele capcane asociate AI.

Cea mai recentă izbucnire pe acest subiect a avut loc marți, 30 mai, ziua în care Centrul de Siguranță AI a publicat pe portalul său o declarație semnată de unele dintre cele mai cunoscute nume din scena tehnologiei. 

Scopul declarat de semnatari este de a evidenția modul în care:

„atenuarea riscului de dispariție a umanității de către IA trebuie să fie o prioritate globală la egalitate cu riscurile la scară largă precum pandemiile și războaiele nucleare”.

Organizația nonprofit nu îndrăznește să lanseze nicio idee de proiect, citatul succint de mai sus este într-adevăr textul complet a ceea ce ”iluminații” sectorului au decis să semneze.

Ficțiunea explorează lumi în care roboții reprezintă o amenințare pentru umanitate de multe decenii, prin urmare ideea că inteligența artificială poate extermina sau înrobește societatea face parte din imaginația colectivă și oricine folosește argumente similare nu se va lupta niciodată să găsească un teren fertil pentru propriile cuvinte. 

Ceea ce directorii generali nu reușesc deseori să sublinieze, însă, este că aceleași derive SF sunt departe de a spune realități legate de produsele comercializate de companiile lor.

Subtextul care reiese în acel singur rând de text publicat de Centrul de Siguranță AI este că AI-urile aflate în prezent pe piață sunt absolut sănătoase și că preocupările ar trebui să se concentreze mai degrabă pe peisaje viitoare ipotetice cu contururi fumurii. 

Pe de altă parte, este suficient să analizăm rolurile personajelor individuale pentru a observa cum managerii sectorului au tendința de a propune public noi legi cu condiția ca acestea să nu le prejudicieze în vreun fel afacerile. 

Abia în martie, o asociație finanțată în mare parte de Elon Musk anunțase necesitatea blocării dezvoltării algoritmilor generativi de ultimă generație, suspendare care nu ar fi afectat în niciun fel scopurile antreprenoriale ale miliardarului sud-african. 

Și mai obraznic este Sam Altman, CEO al OpenAI care, pe de o parte, susține cu pasiune nevoia de a implementa noi reguli și care, pe de altă parte, își exprimă în mod deschis supărarea față de acel Act european al AI care ar trebui să-i potolească în sfârșit toate preocupările formale.

Altman și câțiva dintre colegii săi au o idee foarte clară despre lumea în care inteligența artificială ar trebui gestionată și sugerează în mod deschis că problema ar trebui să se încadreze direct în Națiunile Unite.

În același mod în care energia nucleară se poate baza pe Agenția Internațională pentru Energie Atomică (AIEA), și inteligența artificială merită propriul organism de supraveghere de anvergură internațională. 

Puțin contează faptul că AIEA este adesea criticată pentru rolul său pasiv, pentru lipsa sa de independență și pentru absența unei puteri executive care să forțeze guvernele individuale să se supună efectiv pactelor convenite.

Îndreptând atenția asupra unui „risc de extincție” ipotetic, există șanse mari ca publicul și autoritățile de reglementare să fie distrase sau să dezminți pericolele deja bine integrate în instrumentele AI generative. 

A da voce terorii ancestrale nu face decât să diminueze percepția asupra prejudiciului care ar putea fi cauzat de gestionarea tulbure a fișierelor de referință AI și de stabilirea unui oligopol antreprenorial care, odată ce obțin un avantaj, ar putea oricând să redefinească conținuturile disponibile pentru mase. 

Declinele strategice asumate de rețelele sociale ar trebui să învețe, totuși precedentele sunt de puțin folos atunci când se îndepărtează privirea de la experiență pentru a privi un viitor improbabil și amenințător.

Sursa: lindependente.online

Adaugă comentariu

Trimite
Abonează-te gratuit la știrile săptămânii!

Declar că sunt de acord cu termenele de utilizare și politica de confidențialitate precum și că am citit informațiile care sunt solicitate în conformitate cu articolul 13 din GDPR (Regulamentul EU - 2016/679).