În urma revoltelor din noiembrie de la Dublin, în Irlanda – și în întreaga Europă – a izbucnit o dezbatere aprinsă cu privire la posibilitatea ca utilizarea de către poliție a tehnologiilor de recunoaștere facială să prevină un nou haos pe străzi.
În prezent, „Tehnologia de recunoaștere facială va economisi în mod dramatic timp, va accelera investigațiile și va elibera Garda [Irish police] resurse pentru activitățile polițienești de mare vizibilitate pe care le dorim cu toții”, a declarat recent ministrul irlandez al justiției, Helen McEntee.
Utilizarea acestei tehnologii este larg acceptată în cazurile în care cetățenii se așteaptă să fie identificați.
În timp ce aceste beneficii sunt testate în mod repetat în cadrul unor programe controlate, militanții pentru protecția vieții private și-au exprimat îngrijorarea cu privire la efectul lor de intimidare asupra democrațiilor – precum și cu privire la riscurile discriminatorii inerente.
Dezbaterea din Irlanda a reapărut pe fondul unor negocieri intense la Bruxelles cu privire la AI Act – cartea de reguli care va reglementa tehnologiile bazate pe inteligență artificială, cum ar fi recunoașterea facială.
Deputații europeni au încercat inițial să facă presiuni pentru interzicerea recunoașterii automate a persoanelor în spațiile publice, dar textul final include mai multe excepții care ar face ca utilizarea acestei tehnologii să fie acceptabilă din punct de vedere legal.
Printre acestea se numără, de exemplu, căutarea anumitor victime și suspecți de infracțiuni și prevenirea atacurilor teroriste.
Și, întrucât Europa a devenit prima care a stabilit norme care reglementează IA în lume, mulți au aplaudat acordul încheiat la începutul lunii decembrie.
Însă eșecul UE de a interzice utilizarea acestei tehnologii intruzive în spațiile publice este considerat de militanți precum Amnesty International drept un „precedent devastator”, deoarece legislația UE urmărește să stabilească standarde globale.
Practic, adoptarea pe scară largă a acestor tehnologii de către autoritățile de aplicare a legii în ultimii ani a stârnit preocupări legate de viața privată și de supravegherea în masă, criticii catalogând camerele care văd totul, susținute de o bază de date, drept „Big Brother” sau „coșmarul orwellian”.
Iar Curtea Europeană a Drepturilor Omului s-a pronunțat recent pentru prima dată cu privire la utilizarea recunoașterii faciale de către forțele de ordine.
Concret, Curtea de la Strasbourg a constatat că Rusia a încălcat Convenția europeană a drepturilor omului atunci când a folosit tehnologii biometrice pentru a găsi și aresta un demonstrant pașnic.
Însă implicațiile rămân incerte, deoarece instanța a lăsat multe alte întrebări deschise.
Astfel, „În mod cert, a constatat o încălcare a dreptului la viață privată. Cu toate acestea, este posibil să fi permis desfășurarea recunoașterii faciale în Europa, fără a limita în mod clar aplicațiile sale „echitabile””, susține Isadora Neroni Rezende, cercetător la Universitatea din Bologna.
Sacrificiul
În acest sens, Marea Britanie a fost un pionier în utilizarea tehnologiilor de recunoaștere facială pentru identificarea persoanelor în timp real cu ajutorul camerelor de luat vederi stradale. În câțiva ani, țara a implementat un număr estimat de 7,2 milioane de camere – aproximativ o cameră la fiecare nouă persoane.
Între 2017 și 2019, poliția federală belgiană a utilizat patru camere de recunoaștere facială la Aeroportul din Bruxelles -scena unui atac terorist mortal cu bombă în 2016, soldat cu 16 morți-, dar proiectul a trebuit să se oprească deoarece nu a respectat legile privind protecția datelor.
Iar recent, guvernul francez a accelerat adoptarea unei legislații privind utilizarea camerelor în timp real pentru a detecta comportamente suspecte în timpul Jocurilor Olimpice de la Paris din 2024.
Acestea sunt doar câteva exemple ale modului în care această tehnologie remodelează conceptul de securitate.
Însă, în timp ce utilizarea acestei tehnologii este acceptată în unele cazuri, adevărata provocare apare atunci când utilizarea sa se extinde în spații publice mai largi, unde nu se așteaptă ca oamenii să fie identificați, a declarat într-un interviu acordat EUobserver de către Wojciech Wiewiórowski, supraveghetorul UE pentru protecția datelor (AEPD).
Practic, acest lucru ar însemna de facto „eliminarea anonimatului de pe străzi”, a spus el. „Nu cred că cultura noastră este pregătită pentru așa ceva. Nu cred că Europa este locul în care să fim de acord cu acest tip de sacrificiu”.
În 2021, Wiewiórowski a cerut un moratoriu privind utilizarea sistemelor de identificare biometrică la distanță, inclusiv recunoașterea facială, în spațiile accesibile publicului.
De asemenea, a criticat comisia pentru că nu a ținut cont de recomandările sale atunci când a prezentat prima dată propunerea de lege privind IA.
În opinia sa, „Nu aș vrea să trăiesc într-o societate în care viața privată va fi eliminată”, a declarat el pentru EUobserver.
În plus, „Dacă ne uităm la la unele țări în care există o deschidere mult mai mare pentru acest tip de tehnologie, putem vedea că, în cele din urmă, este folosită pentru a recunoaște persoana, oriunde s-ar afla aceasta, pentru a o viza și pentru a o urmări”, a avertizat Wiewiórowski, indicând China ca fiind cel mai bun exemplu.
În general, „Explicația că tehnologia este folosită doar împotriva oamenilor răi (…) este același lucru pe care mi l-au spus polițiștii în 1982, în Polonia totalitară, unde comunicațiile telefonice erau de asemenea supravegheate”, a mai spus el.
Întărirea stereotipurilor
În general, în timp ce aceste tehnologii pot fi considerate un instrument modern și eficient pentru aplicarea legii, cadrele universitare și experții au documentat modul în care tehnologiile biometrice bazate pe inteligența artificială pot reflecta stereotipuri și discriminare împotriva anumitor grupuri etnice.
Cât de bine funcționează această tehnologie depinde în principal de calitatea datelor utilizate pentru a antrena software-ul și de calitatea datelor utilizate atunci când este implementată.
Însă, pentru Ella Jakubowska, militantă la EDRi, există o concepție greșită despre cât de eficientă poate fi această tehnologie. „Există o neînțelegere statistică de bază din partea guvernelor”.
În plus, „Am văzut deja în întreaga lume că sistemele biometrice sunt utilizate în mod disproporționat împotriva comunităților de culoare și maro, a persoanelor în mișcare și a altor persoane minoritare”, a spus ea, argumentând că producătorii vând „promisiuni false de securitate profitabile”.
Un studiu independent privind utilizarea recunoașterii faciale în direct de către poliția londoneză a arătat că rata reală de succes a acestor sisteme este de sub 40 %.
Iar un raport din 2018 a dezvăluit că, în sistemul poliției din Țara Galilor de Sud, 91% dintre potriviri au fost etichetate ca fiind fals pozitive, cu 2.451 de identificări incorecte.
Companiile din domeniul tehnologiei au făcut lobby împotriva oricărei posibile interdicții privind utilizarea acestor tehnologii în locuri publice.
Implicațiile erorilor algoritmice asupra drepturilor omului sunt adesea evidențiate ca fiind una dintre principalele preocupări pentru dezvoltarea și utilizarea acestei tehnologii.
Iar una dintre principalele probleme pentru potențialele victime ale discriminării cauzate de IA este reprezentată de obstacolele juridice semnificative cu care se confruntă pentru a dovedi (prima facie) o astfel de discriminare – având în vedere problema „cutiei negre” a acestor tehnologii.
Riscul de eroare a determinat mai multe companii să se retragă de pe piețe. Printre acestea se numără Axon, o cunoscută companie americană care furnizează camere de corp pentru poliție, precum și Microsoft și Amazon.
Dar mulți încă o apără ca fiind un instrument crucial pentru aplicarea legii în zilele noastre – făcând lobby împotriva oricărei posibile interdicții și în favoarea unor excepții pentru aplicarea legii în cadrul Legii privind inteligența artificială.
Eforturi de lobby
În acest sens, Google a îndemnat la prudență împotriva interzicerii sau restricționării acestei tehnologii, argumentând că ar pune în pericol „o multitudine de cazuri de utilizare benefice, dorite și impuse de lege”, inclusiv „siguranța copiilor”.
Astfel, „Din cauza unei anumite lipse de înțelegere, astfel de tehnologii inovatoare [such as facial recognition and biometric data] sunt din ce în ce mai mult prezentate în mod eronat ca fiind un risc pentru drepturile fundamentale”, a declarat compania chineză de camere Hikvision, care se află pe lista neagră în SUA.
În lobby-ul său, DigitalEurope din industria tehnologică a lăudat beneficiile. „Este esențial să recunoaștem beneficiile semnificative pentru siguranța publică și securitatea națională”.
În plus, companiile din domeniul securității și apărării au făcut, de asemenea, lobby în favoarea excepțiilor.
Însă, se pare că cea mai mare presiune în favoarea acestora a venit din partea ministerelor de interne și a agențiilor de aplicare a legii, potrivit Corporate Europe Observatory.
Între timp, se estimează că piața de recunoaștere facială din Europa va crește de la 1,2 miliarde de dolari [€1.09bn] în 2021 la 2,4 miliarde de dolari până în 2028.
Sursa: euobserver.com