Elon Musk și mai mult de 1.000 de cercetători și directori din domeniul tehnologiei au cerut o „pauză” de șase luni în dezvoltarea sistemelor avansate de inteligență artificială, cum ar fi GPT de la OpenAI, pentru a opri ceea ce ei numesc o cursă a înarmării „periculoasă”.
O scrisoare deschisă, publicată miercuri de Future of Life Institute, un grup de campanie non-profit, a fost semnată de mai mult de 1.100 de persoane din mediul academic și din industria tehnologică în câteva ore de la publicarea sa.
„Ultimele luni au văzut laboratoarele de inteligență artificială blocate într-o cursă scăpată de sub control pentru a dezvolta și implementa minți digitale din ce în ce mai puternice pe care nimeni – nici măcar creatorii lor – nu le poate înțelege, prezice sau controla în mod fiabil”, se arată în scrisoare.
Printre cosemnatari se numără profesorii de top în domeniul IA Stuart Russell și Yoshua Bengio, co-fondatorii Apple, Pinterest și Skype, precum și fondatorii start-up-urilor de IA Stability AI și Character.ai. Institutul Future of Life, care a publicat scrisoarea, îl numără pe Musk printre cei mai mari finanțatori ai săi și este condus de Max Tegmark, profesor la Massachusetts Institute of Technology și cercetător în domeniul IA.
„Facem apel la toate laboratoarele de inteligență artificială să întrerupă imediat, pentru cel puțin șase luni, antrenarea sistemelor de inteligență artificială mai puternice decât GPT-4. Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii cheie. În cazul în care o astfel de pauză nu poate fi promulgată rapid, guvernele ar trebui să intervină și să instituie un moratoriu”, a adăugat grupul.
Scrisoarea urmează o avalanșă de lansări revoluționare de inteligență artificială în ultimele cinci luni, inclusiv ChatGPT de la OpenAI, susținut de Microsoft, în noiembrie și lansarea din această lună a GPT-4, modelul sofisticat care stă la baza chatbot-ului.
Companii precum Google, Microsoft și Adobe adaugă, de asemenea, noi tipuri de funcții de inteligență artificială la motoarele lor de căutare și la instrumentele lor de productivitate, într-o mișcare care a pus inteligența artificială în mâinile a milioane de utilizatori obișnuiți.
Acest ritm accelerat de dezvoltare și implementare publică i-a îngrijorat pe unii cercetători în domeniul IA și eticieni în domeniul tehnologiei cu privire la impactul potențial asupra ocupării forței de muncă, a discursului public și – în cele din urmă – a capacității umanității de a ține pasul.
Scrisoarea a îndemnat la crearea unor protocoale de siguranță partajate care să fie auditate de experți independenți pentru a „asigura că sistemele care aderă la ele sunt sigure dincolo de orice îndoială rezonabilă”.
„Sistemele de inteligență artificială cu inteligență competitivă umană pot prezenta riscuri profunde pentru societate și umanitate”, se afirmă în scris.
În fruntea listei tot mai mari de semnatari ai scrisorii se află renumiții cercetători în domeniul inteligenței artificiale Bengio, profesor la Universitatea din Montreal, și Russell, profesor la Berkeley.
Musk, care a fost co-fondator al OpenAI, dar a plecat în 2018 și de atunci a devenit critic față de organizație, a semnat, de asemenea, scrisoarea. Printre alții se numără co-fondatorul Apple Steve Wozniak, autorul Yuval Noah Harari și fostul candidat la președinția SUA Andrew Yang.
Din ea fac parte, de asemenea, mai mulți ingineri și cercetători de la Microsoft, Google, Amazon, Meta și DeepMind, deținută de Alphabet. Nimeni care să se identifice ca angajat al OpenAI nu s-a aflat printre primele 1.000 de persoane care au semnat scrisoarea.
Intervenția vine în contextul în care guvernele din întreaga lume se grăbesc să formuleze un răspuns politic la domeniul în evoluție rapidă al IA, chiar dacă unele companii Big Tech își reduc echipele de etică a IA.
Marea Britanie va publica miercuri o carte albă care va cere autorităților de reglementare existente să dezvolte o abordare coerentă a utilizării IA în industriile lor respective, cum ar fi asigurarea faptului că sistemele de IA sunt corecte și transparente. Cu toate acestea, guvernul nu va oferi noi puteri sau noi finanțări autorităților de reglementare în această etapă.
De asemenea, UE își pregătește propriul act care va reglementa modul în care este utilizată IA în Europa, fiind așteptate amenzi pentru companiile care încalcă normele UE.
Sursa – www.ft.com