Companiile Big Tech au redus personalul din echipele dedicate evaluării problemelor etice legate de implementarea inteligenței artificiale, ceea ce a dus la îngrijorări cu privire la siguranța noii tehnologii, pe măsură ce aceasta devine adoptată pe scară largă în produsele de consum.
Microsoft, Meta, Google, Google, Amazon și Twitter se numără printre companiile care au tăiat membri ai „echipelor lor de inteligență artificială responsabilă”, care oferă consultanță cu privire la siguranța produselor de consum care utilizează inteligența artificială.
Numărul de personal afectat rămâne de ordinul zecilor și reprezintă o mică parte din zecile de mii de lucrători din domeniul tehnologiei eliminați ca răspuns la o încetinire mai amplă a industriei.
Companiile au declarat că rămân dedicate în continuare să lanseze produse de inteligență artificială sigure. Dar experții au declarat că reducerile rămân îngrijorătoare, deoarece se descoperă potențiale abuzuri ale tehnologiei chiar în momentul în care milioane de oameni încep să experimenteze cu instrumente de IA.
Îngrijorarea lor a crescut în urma succesului chatbotului ChatGPT lansat de OpenAI, susținut de Microsoft, care a determinat alte firme de tehnologie să lanseze rivali precum Bard de la Google și Claude de la Anthropic.
„Este șocant cât de mulți membri ai AI responsabile sunt lăsați să plece într-un moment în care, fără îndoială, aveți nevoie de mai multe astfel de echipe decât oricând”, a declarat Andrew Strait, fost cercetător în domeniul eticii și politicilor la DeepMind, deținut de Alphabet, și director asociat la organizația de cercetare Ada Lovelace Institute.
Microsoft a desființat în ianuarie întreaga sa echipă de etică și societate, care a condus activitatea inițială a companiei în acest domeniu. Gigantul tehnologic a declarat că reducerile s-au ridicat la mai puțin de 10 roluri și că Microsoft are încă sute de persoane care lucrează în biroul său de inteligență artificială responsabilă.
„Am crescut în mod semnificativ eforturile noastre de inteligență artificială responsabilă și am lucrat din greu pentru a le instituționaliza în întreaga companie”, a declarat Natasha Crampton, ofițerul principal de inteligență artificială responsabilă al Microsoft.
Twitter a redus mai mult de jumătate din numărul de angajați sub conducerea noului său proprietar miliardar Elon Musk, inclusiv mica sa echipă de inteligență artificială etică. Munca sa trecută a inclus corectarea unei prejudecăți în algoritmul Twitter, care părea să favorizeze fețele albe atunci când alegea cum să decupeze imaginile pe rețeaua socială. Twitter nu a răspuns la o solicitare de comentarii.
Twitch, platforma de streaming deținută de Amazon, și-a redus săptămâna trecută echipa de inteligență artificială etică, făcând ca toate echipele care lucrează la produse de inteligență artificială să fie responsabile pentru problemele legate de prejudecăți, potrivit unei persoane familiare cu această mișcare. Twitch a refuzat să comenteze.
În septembrie, Meta și-a dizolvat echipa de inovare responsabilă de aproximativ 20 de ingineri și eticieni însărcinați cu evaluarea drepturilor civile și a eticii pe Instagram și Facebook. Meta nu a răspuns la o solicitare de comentarii.
„Echipele responsabile de inteligență artificială sunt printre singurele bastioane interne pe care Big Tech le are pentru a se asigura că oamenii și comunitățile afectate de sistemele de inteligență artificială sunt în mintea inginerilor care le construiesc”, a declarat Josh Simons, fost cercetător de etică AI de la Facebook și autor al Algoritmi pentru oameni.
„Viteza cu care sunt desființate lasă algoritmii Big Tech la mila imperativelor publicitare, subminând bunăstarea copiilor, a persoanelor vulnerabile și a democrației noastre”.
O altă preocupare este că modelele lingvistice mari, care stau la baza chatbots precum ChatGPT, sunt cunoscute ca fiind „halucinante” – fac afirmații false ca și cum ar fi fapte – și pot fi folosite în scopuri nefaste, cum ar fi răspândirea dezinformării și trișarea la examene.
„Ceea ce începem să vedem este că nu putem anticipa pe deplin toate lucrurile care se vor întâmpla cu aceste noi tehnologii și este crucial să le acordăm o anumită atenție”, a declarat Michael Luck, directorul Institutului pentru Inteligență Artificială de la King’s College din Londra.
Rolul echipelor interne de etică a IA a fost analizat, deoarece există o dezbatere cu privire la faptul că orice intervenție umană în algoritmi ar trebui să fie mai transparentă, cu contribuții din partea publicului și a autorităților de reglementare.
În 2020, aplicația foto Instagram, deținută de Meta, a înființat o echipă pentru a aborda „justiția algoritmică” pe platforma sa. Echipa „IG Equity” a fost formată după uciderea lui George Floyd de către poliție și dorința de a face ajustări ale algoritmului Instagram pentru a stimula discuțiile despre rasă și a evidenția profilurile persoanelor marginalizate.
Simons a spus: „Ei sunt capabili să intervină și să schimbe aceste sisteme și prejudecăți (și) să exploreze intervențiile tehnologice care vor avansa echitatea … dar inginerii nu ar trebui să decidă modul în care este modelată societatea „.
Unii angajați însărcinați cu supravegherea etică a inteligenței artificiale la Google au fost, de asemenea, concediați ca parte a unor reduceri mai ample la Alphabet de peste 12.000 de angajați, potrivit unei persoane apropiate companiei.
Google nu a vrut să precizeze câte roluri au fost tăiate, dar că IA responsabilă rămâne o „prioritate de top în cadrul companiei și continuăm să investim în aceste echipe”.
Tensiunea dintre dezvoltarea tehnologiilor de inteligență artificială în cadrul companiilor și impactul și siguranța acestora a apărut anterior la Google. Doi lideri de cercetare în domeniul eticii AI, Timnit Gebru și Margaret Mitchell, au ieșit în 2020 și, respectiv, 2021, după o dispută foarte mediatizată cu compania.
„Este problematic atunci când practicile responsabile de inteligență artificială sunt deprioritarizate pentru concurență sau pentru o împingere pe piață”, a declarat Strait de la Institutul Ada Lovelace. „Și, din păcate, ceea ce văd acum este exact ceea ce se întâmplă”.
Sursa – www.ft.com