Legea privind inteligența artificială, care urmează să fie adoptată definitiv de către deputații europeni în luna aprilie, prevede unele norme specifice pentru utilizarea sistemelor de recunoaștere a emoțiilor (ERS) în scopul aplicării legii. De exemplu, autoritățile polițienești care utilizează ERS nu sunt obligate să informeze persoanele atunci când sunt expuse la aceste sisteme.
Astfel, utilizarea sistemelor de inteligență artificială care pretind să deducă emoțiile din date biometrice (cum ar fi fața și vocea) este interzisă doar „în domeniile de la locul de muncă și în instituțiile de învățământ” (sub rezerva unei excepții neclare privind „siguranța”), nu și în contexte precum aplicarea legii și migrația.
În acest sens, validitatea științifică a ERS ridică probleme serioase, în special din cauza faptului că exprimarea emoțiilor variază considerabil în funcție de culturi și situații, și chiar în cadrul unei singure persoane, fiind astfel nu numai inexactă, ci și inerent discriminatorie.
Toată baza științifică a sistemelor de recunoaștere a emoțiilor faciale a fost pusă sub semnul întrebării, prin echivalarea ipotezelor acestora cu teorii pseudoștiințifice, precum frenologia sau fizionomia.
Concret, este vorba despre sisteme precum IBorderCtrl, în care un polițist virtual folosește o cameră web pentru a vă scana fața și mișcările ochilor în căutarea unor semne de minciună. La finalul interviului, sistemul vă oferă un cod QR pe care trebuie să îl arătați unui gardian atunci când ajungeți la frontieră. Paznicul scanează codul cu ajutorul unei tablete portabile, vă ia amprentele digitale și analizează imaginea facială captată de avatar pentru a verifica dacă aceasta corespunde cu pașaportul dumneavoastră. Tableta paznicului afișează un punctaj de la 100, indicându-i dacă mașina a considerat că sunteți sincer sau nu.
Pe lângă problema „inteligenței artificiale cu ulei de șarpe”, există și altele:
În primul rând, natura intruzivă a acestor sisteme va crește cu siguranță dezechilibrul de putere între persoana în cauză și autoritatea publică.
În al doilea rând, posibila natură de „cutie neagră” a sistemului de inteligență artificială: odată supusă ERS, de asemenea „doar” pentru a ajuta la luarea deciziilor, acțiunea autorităților de aplicare a legii sau de migrație devine „imprevizibilă”: care va fi impactul asupra scorului meu de fiabilitate al oricăreia dintre microexpresiile mele voluntare sau involuntare?
La rândul ei, Curtea de Justiție a UE a susținut anterior că IA care produce rezultate negative, care nu pot fi nici urmărite, nici contestate, sunt incompatibile cu protecția drepturilor fundamentale. Iar drepturile fundamentale nu pot fi limitate de o IA care nu este nici pe deplin inteligibilă, nici pe deplin controlată în învățarea sa.
În al treilea rând, utilizarea unei astfel de IA implică obiectivarea persoanei și o nerespectare sistemică a suveranității corporale. Utilizarea unor sisteme de inteligență artificială deosebit de intruzive, cum ar fi cele care (pretind că) deduc emoțiile persoanelor din datele biometrice ale acestora, afectează dreptul fundamental la viață privată, autonomie și demnitate al persoanei în cauză.
Demnitate
Conceptul de demnitate a avut un rol important în respingerea de către instanța supremă a anumitor metode de examinare în contextul migrației care se amestecă în sfera personală a solicitanților de azil. Într-o cauză anterioară, instanța a decis că „testele” de orientare sexuală, efectuate de autoritățile naționale în evaluarea temerii de persecuție pe motive de orientare sexuală, ar încălca prin natura lor demnitatea umană.
În opinia mea, acesta ar fi cazul, și cu atât mai mult, al ERS AI pentru evaluarea unui solicitant de azil.
În pofida riscurilor inacceptabile pentru drepturile și libertățile persoanei afectate de utilizarea acestor sisteme, în special de către autoritățile publice, ERS și alte „instrumente” de IA, cum ar fi poligraful (detectorul de minciuni), sunt clasificate ca IA cu risc ridicat.
Dar aceste sisteme ar fi „marcate CE” și s-ar bucura de libera circulație pe piața internă.
Evaluarea impactului asupra drepturilor fundamentale, care urmează să fie efectuată de către utilizatorii IA înainte de implementarea acesteia, nu poate fi considerată un remediu satisfăcător.
În primul rând, aceasta nu ar rezolva problema „previzibilității” (o persoană poate sau nu să fie supusă în cele din urmă IA ERS, în funcție de rezultatul evaluării „de la caz la caz”). În al doilea rând, și cel mai important, problema în cauză nu se referă la „riscuri”. Afectarea integrității mintale suferită de solicitantul de azil nu este un risc: este o certitudine.
Dreptul de a nu face obiectul unor deducții statistice asupra stării noastre mentale este într-adevăr un drept, și nu o chestiune de circumstanțe. Transformarea drepturilor în riscuri reprezintă o schimbare de reglementare fără precedent a Legii privind IA, care, în multe cazuri, în opinia mea, nu trece testul legalității.
Abordarea de reglementare a riscurilor poate fi în contradicție cu „dreptul de a avea drepturi”. Prejudiciul adus demnității care rezultă din IA fizionomică – care este per se nedreaptă și înșelătoare – nu este o chestiune de garanții procedurale, cum ar fi „omul în buclă” sau „notificarea și consimțământul”, sau de remedieri tehnice.
Dacă luăm în considerare faptul că, în cele mai multe cazuri, cerințele pentru gestionarea riscurilor sunt încredințate unor standarde tehnice – intrând în domenii de politică publică, cum ar fi drepturile fundamentale – , fundamentele juridice șubrede ale Legii privind IA devin și mai evidente.
În pledoaria pentru o reglementare privind IA care să pună drepturile omului înaintea altor considerente, m-am concentrat asupra „dataficării” corpului uman. Tratarea diferențiată a persoanelor din cauza inferențelor („clasificări biometrice”, gânduri, înclinații, credințe, intenții „recunoscute”) din corp (față, voce, modul în care mergem) făcute de mașină: nu este doar o chestiune de IA „ulei de șarpe”, ci este o linie pe care nicio societate bună nu ar trebui să o depășească.
Alte aspecte ale Legii privind IA, și anume reglementarea utilizării de către poliție a recunoașterii faciale în timp real și retrospective a persoanelor în spații accesibile publicului; „clasificarea datelor biometrice în domeniul aplicării legii”; și poliția predictivă bazată pe crearea de profiluri, ar putea fi, de asemenea, evaluate de instanța UE ca fiind lipsite de cerințele de previzibilitate, necesitate și proporționalitate.
Din aceste motive, sper că deputații europeni nu vor aproba Legea privind IA în textul său actual. UE este o lumină călăuzitoare în ceea ce privește drepturile fundamentale într-o lume plină de provocări.
Normalizarea intruziunilor „algoritmice” arbitrare în viața noastră interioară prin intermediul aspectului nostru fizic (fie la interviurile de angajare, atunci când mergem pe stradă, fie prin intermediul chat-ului sau al roboților video la frontiere) oferă o moștenire de nerespectare a demnității umane.
Luarea deciziilor pe baza emoțiilor noastre presupuse, deduse de AI din chip sau voce („ce ar spune corpul”), amenință moștenirea drepturilor noastre fundamentale: visul părinților noștri, care a devenit cumva realitate după cel de-al Doilea Război Mondial, și pe care ar trebui să îl încredințăm cu grijă copiilor noștri.
Aşadar, acordul trilateral privind Legea privind IA va fi votat marți (13 februarie) de către Comisia pentru piața internă a Parlamentului și în aprilie de către plenul Parlamentului, ca etape finale pentru adoptarea textului.
Sursa: euobserver.com