Matematicianul britanic IJ Good a fost printre primii care au speculat despre ce se va întâmpla atunci când computerele vor depăși oamenii. Într-o zi, scria el, vom construi o mașină ultra-inteligentă care ar putea proiecta singură o mașină și mai inteligentă, declanșând o „explozie a inteligenței”. „Astfel, prima mașină ultra-inteligentă este ultima invenție pe care omul trebuie să o facă vreodată, cu condiția ca mașina să fie suficient de docilă pentru a ne spune cum să o ținem sub control.”
Speculațiile lui Good păreau fantastice când au apărut în 1964.
Astăzi nu mai par atât de fantastice. Progresele recente în domeniul inteligenței artificiale, evidențiate de modele puternice de inteligență artificială generativă, cum ar fi GPT-4 de la OpenAI și Bard de la Google, au uimit milioane de oameni. S-ar putea să ne aflăm încă la câteva descoperiri conceptuale distanță de crearea mașinilor ultrainteligente ale lui Good, îmi spune fondatorul unei importante companii de inteligență artificială. Dar nu mai este „absolut nebunesc” să credem că am putea atinge inteligența generală artificială, așa cum este numită, până în 2030.
Companiile care dezvoltă tehnologia IA
Companiile care dezvoltă tehnologia IA subliniază, pe bună dreptate, potențialul acesteia de a crește productivitatea economică, de a spori creativitatea umană și de a deschide noi căi interesante pentru cercetarea științifică. Dar ele acceptă, de asemenea, că modelele generative de inteligență artificială au defecte grave. „Dezavantajul este că, la un moment dat, omenirea pierde controlul asupra tehnologiei pe care o dezvoltă”, a declarat fără menajamente Sundar Pichai, directorul executiv al Google, pentru CBS News.
Mai mult de 27.000 de persoane, inclusiv mai mulți cercetători de vârf în domeniul inteligenței artificiale, au semnat o scrisoare deschisă de la Future of Life Institute care solicită un moratoriu de șase luni pentru dezvoltarea modelelor de vârf. Alții au mers mai departe și au cerut ca toate cercetările în domeniul AGI să fie oprite. Eliezer Yudkowsky, director de cercetare la Machine Intelligence Research Institute, a susținut că, dacă nu se schimbă nimic, rezultatul cel mai probabil al construirii unei „inteligențe artificiale supraomenești” este că „literalmente toată lumea de pe Pământ va muri”. Ar trebui să monitorizăm cu strictețe utilizarea cipurilor de calculator avansate folosite pentru IA și chiar să luăm în considerare atacuri aeriene împotriva centrelor de date necinstite care au încălcat o interdicție, a scris el în Time.
Astfel de discuții hiperventilante îi incită pe alți cercetători, care susțin că AGI poate rămâne pentru totdeauna o fantezie și că discuțiile despre aceasta nu fac decât să ascundă daunele pe care tehnologia le produce aici și acum. De ani de zile, cercetători precum Timnit Gebru, Margaret Mitchell, Angelina McMillan-Major și Emily Bender au avertizat că modelele puternice de învățare automată riscă să concentreze și mai mult puterea corporatistă, să exacerbeze inegalitățile sociale și să polueze informațiile publice. Este periculos să ne distragem atenția cu „o utopie sau o apocalipsă fantastică a inteligenței artificiale”, susțin ei. „În schimb, ar trebui să ne concentrăm asupra practicilor de exploatare foarte reale și foarte prezente ale companiilor care pretind că le construiesc”, au scris ei ca răspuns la scrisoarea FLI.
Cum ar trebui să-și prioritizeze eforturile de reglementare?
Nu putem decât să compătimim pe responsabilul politic care încearcă să răspundă la aceste preocupări contradictorii. Cum ar trebui să-și prioritizeze eforturile de reglementare? Răspunsul scurt este că trebuie să ia în serios ambele seturi de preocupări, făcând diferența între riscurile imediate și cele pe termen lung.
Cu siguranță nu este de ajutor, după cum observă John Tasioulas, directorul Institutului pentru Etică în IA de la Universitatea Oxford, faptul că mulțimea pentru siguranța IA și mulțimea pentru etica IA, așa cum le numește el, par să fie „angajate într-un război intern”. Dar el sugerează că, în mare parte, ei se ceartă în legătură cu lucruri diferite. Cei care se ocupă de siguranță tind să considere că sursa problemei este tehnologia în sine, cerând o soluție tehnică. Cei care se ocupă de etică susțin că IA trebuie privită într-un context social și economic mult mai larg.
În ceea ce privește provocările imediate, fiecare autoritate de reglementare ar trebui să analizeze modul în care IA ar putea afecta domeniul lor, să aplice normele existente privind drepturile omului, confidențialitatea, datele și concurența și să analizeze modul în care acestea ar putea fi actualizate. În ceea ce privește provocările pe termen mai lung, ar trebui să dezbatem abordări mai radicale.
Într-un articol recent, investitorul Ian Hogarth a îndemnat legiuitorii să îi interogheze sub jurământ pe conducătorii laboratoarelor de cercetare în domeniul IA cu privire la riscurile de siguranță. De asemenea, el a solicitat crearea unei agenții internaționale de colaborare, după modelul laboratorului de fizică a particulelor Cern, pentru a cerceta AGI. Acest lucru ar anula dinamica periculoasă a unei curse a sectorului privat pentru dezvoltarea tehnologiei.
Este o idee inteligentă, chiar dacă este greu de imaginat cum ar putea fi creată rapid o astfel de agenție internațională. Este o nebunie să credem că doar companiile private orientate spre profit vor proteja interesele societății atunci când se urmărește posibilitatea, oricât de îndepărtată, a AGI. Menținerea mașinilor suficient de docile pentru a fi controlate de oameni, așa cum spera Good, va fi provocarea guvernanței epocii noastre.
Sursa – www.ft.com