Când ChatGPT și alte cazuri de software de inteligență artificială au fost dezlănțuite asupra unui public neștiutor în urmă cu câteva luni, a urmat o frenezie de uimire. În urma ei a venit o avalanșă de îngrijorare cu privire la locul în care evoluțiile amețitoare ale capacităților software-ului vor duce societatea umană – inclusiv, în mod surprinzător, de la oameni care sunt foarte aproape de acțiune.
Luna trecută, investitorul în inteligență artificială Ian Hogarth a insistat în revista de weekend a FT că „trebuie să încetinim cursa către o inteligență artificială asemănătoare lui Dumnezeu”. Câteva săptămâni mai târziu, cel pe care îl numim „nașul” AI, Geoffrey Hinton, a părăsit Google pentru a-și putea exprima liber îngrijorările, inclusiv într-un interviu acordat New York Times. Profesorul și antreprenorul în domeniul inteligenței artificiale Gary Marcus își face griji cu privire la „ce pot face actorii răi cu aceste lucruri”. Și chiar astăzi, FT a publicat un interviu cu pionierul IA Yoshua Bengio, care se teme că IA ar putea „destabiliza democrația”. Între timp, un număr mare de investitori și experți în inteligență artificială au cerut un „moratoriu” asupra dezvoltării în continuare a acestei tehnologii.
Spuneți-mi că sunt naiv, dar am constatat că nu am reușit să mă las prins în mare parte din entuziasm. Nu pentru că mă îndoiesc că AI va zgudui modul în care ne trăim viețile și mai ales structurile economiilor noastre – desigur, așa va fi. (Consultați această listă a numeroaselor moduri în care oamenii încep deja să folosească IA). Ci mai degrabă pentru că mă străduiesc să văd cum chiar și cele mai grave scenarii împotriva cărora ne avertizează experții sunt calitativ diferite de marile probleme pe care omenirea a reușit deja să le provoace și a trebuit să încerce să le rezolve de una singură.
Să luăm exemplul lui Hogarth, în care un chatbot cu inteligență artificială determină pe cineva să se sinucidă. În secolul al XVIII-lea, se presupune că citirea cărții lui Goethe, The Sorrows of Young Werther, ar putea avea același efect. Oricare ar fi concluzia pe care ar trebui să o tragem, aceasta nu este că IA reprezintă un pericol existențial.
Sau luați-l pe Hinton, a cărui „îngrijorare imediată este că internetul va fi inundat de fotografii, videoclipuri și texte false, iar persoana obișnuită „nu va mai fi capabilă să știe ce este adevărat””. Incapacitatea de a vedea adevărul este o teamă care pare împărtășită de toți gânditorii menționați mai sus. Dar minciuna și manipularea, în special în procesele noastre democratice, sunt probleme pe care noi, oamenii, am fost perfect capabili să le provocăm fără a fi nevoie de IA. O privire rapidă asupra unor opinii susținute de mari pluralități ale publicului din SUA, de exemplu, arată că (ca să spunem politicos) accesul afectat la adevăr nu este nimic nou. Și, bineînțeles, capacitatea IA generativă de a crea deepfakes înseamnă că va trebui să devenim mai critici cu privire la ceea ce vedem și auzim; iar politicienii fără scrupule se vor folosi de acuzația de deepfake pentru a respinge dezvăluirile dăunătoare despre ei. Dar, din nou, în 2017, Donald Trump nu a avut nevoie de existența IA pentru a putea întoarce acuzațiile de „fake news” împotriva detractorilor săi.
Deci, cred că mirosul de teroare existențială pe care ultimele descoperiri ale AI l-au biciuit este o distragere a atenției. În schimb, ar trebui să ne gândim la un nivel mult mai banal. Marcus face o analogie frumoasă cu codurile de construcție și standardele pentru instalațiile electrice, iar acesta – mai degrabă decât o încercare de a încetini evoluțiile tehnologice în sine – este planul pe care ar trebui să se desfășoare discuțiile politice.
Există două întrebări deosebit de serioase (pentru că sunt cele mai ușor de acționat) pe care factorii de decizie politică ar trebui să le abordeze, în special factorii de decizie politică economică.
Prima este cine ar trebui să fie tras la răspundere pentru deciziile luate de algoritmii de inteligență artificială. Ar trebui să fie ușor de acceptat principiul conform căruia nu ar trebui să permitem decizii luate de AI pe care nu le-am permite (sau nu am vrea să le permitem) dacă ar fi luate de un decident uman. Desigur, avem o formă proastă în această privință: lăsăm structurile corporative să scape cu acțiuni pe care nu le-am permite unor oameni individuali. Dar, având în vedere că inteligența artificială se află la început, avem ocazia de a elimina de la bun început posibila impunitate pentru persoanele reale, bazată pe apărarea că „inteligența artificială a fost cea care a făcut-o”. (Apropo, acest argument nu se limitează la IA: ar trebui să tratăm în același mod algoritmii de calculator neinteligenți).
O astfel de abordare încurajează eforturile legislative și de reglementare să nu se împotmolească în tehnologia în sine, ci să se concentreze mai degrabă pe utilizările sale particulare și pe daunele care decurg de aici. În cele mai multe cazuri, nu contează atât de mult dacă un prejudiciu este cauzat de o decizie a inteligenței artificiale sau de o decizie umană; ceea ce contează este să descurajeze și să penalizeze decizia dăunătoare. Daniel Dennett exagerează atunci când afirmă în revista The Atlantic că abilitatea IA de a crea „oameni digitali contrafăcuți riscă să ne distrugă civilizația”. Dar el face o observație bună: dacă directorii companiilor de tehnologie care dezvoltă IA ar putea fi condamnați la închisoare pentru că tehnologia lor este folosită pentru a facilita frauda, ei se vor asigura rapid că software-ul include semnături care să faciliteze detectarea faptului că comunicăm cu o IA.
Legea privind inteligența artificială care este în curs de legiferare în UE pare să adopte abordarea corectă: identificarea anumitor utilizări ale IA care urmează să fie interzise, restricționate sau reglementate; impunerea transparenței cu privire la momentul în care este utilizată IA; garantarea faptului că normele care se aplică în alte părți se aplică și în cazul utilizărilor IA, cum ar fi drepturile de autor pentru operele de artă pe care o IA poate fi antrenată; și specificarea clară a locului de răspundere, de exemplu, dacă este a dezvoltatorului unui algoritm de IA sau a utilizatorilor acestuia.
A doua mare problemă la care factorii de decizie politică ar trebui să acorde atenție este care vor fi consecințele distributive ale câștigurilor de productivitate pe care ar trebui să le aducă în cele din urmă AI. O mare parte din acestea vor depinde de drepturile de proprietate intelectuală, care se referă în cele din urmă la cine controlează accesul la tehnologie (și poate cere bani pentru acest acces).
Deoarece nu știm cum va fi utilizată IA, este greu de știut în ce măsură accesul la utilizările valoroase ar fi controlat și monetizat. Așadar, este util să ne gândim în termeni de două extreme. Pe de o parte este lumea complet proprietară, în care cea mai utilă IA va fi proprietatea intelectuală a companiilor care creează tehnologii de IA. Acestea vor fi cel mult câteva, din cauza resurselor uriașe alocate creării de inteligență artificială utilizabilă. Fiind un monopol sau un oligopol efectiv, acestea vor putea percepe tarife ridicate pentru licențiere și vor putea profita de cea mai mare parte a câștigurilor de productivitate pe care le poate aduce IA.
La extrema opusă se află lumea open-source, în care tehnologia IA poate fi exploatată cu investiții foarte mici, astfel încât orice încercare de restricționare a accesului va determina doar crearea unui rival gratuit cu sursă deschisă. Dacă autorul memorandumului de scurgere de informații de la Google „nu avem niciun șanț” are dreptate, lumea open-source este cea la care ne uităm. Rebecca Gorman, de la Aligned AI, susține același lucru într-o scrisoare către FT. În această lume, câștigurile de productivitate obținute de inteligența artificială vor fi câștigate de oricine are inteligența sau motivația de a le implementa – companiile de tehnologie își vor vedea produsele transformate în produse de larg consum și cu prețuri mai mici din cauza concurenței.
Cred că este imposibil să știm acum de care extremă vom fi mai aproape, pentru simplul motiv că este imposibil să ne imaginăm cum va fi folosită IA și, prin urmare, ce tehnologie precisă va fi necesară. Dar aș face două observații.
Una este să ne uităm la internet: protocoalele sale sunt concepute pentru a fi accesibile tuturor, iar limbajul este, desigur, open-source. Cu toate acestea, acest lucru nu a împiedicat marile companii de tehnologie să încerce, și adesea să reușească, să creeze „grădini îngrădite” cu produsele lor și să extragă rente economice în consecință. Prin urmare, ar trebui să ne facem griji că revoluția inteligenței artificiale se va preta la concentrarea puterii economice și a recompenselor.
Al doilea este că locul în care vom ajunge este, în parte, rezultatul alegerilor politice pe care le facem astăzi. Pentru a împinge spre o lume cu sursă deschisă, guvernele ar putea legifera pentru a crește transparența și accesul la tehnologia dezvoltată de companiile de tehnologie, transformând, de fapt, proprietatea în sursă deschisă. Printre instrumentele pe care ar fi logic să le luăm în considerare – în special pentru tehnologiile mature, marile companii sau instanțele de inteligență artificială care dobândesc o preluare rapidă de către utilizatori – se numără licențele obligatorii (la prețuri reglementate) și cerința de a publica codul sursă.
La urma urmei, datele mari pe baza cărora va fi fost antrenată orice IA de succes sunt generate de noi toți. Publicul are o pretenție puternică asupra fructului muncii lor în domeniul datelor.
Sursa – www.ft.com