Creșterea explozivă a Clubhouse, o rețea socială audio bazată pe aparițiile unor celebrități tehnologice precum Elon Musk și Mark Zuckerberg, a analizat modul în care aplicația va gestiona conținutul problematic, de la discursuri de ură la hărțuire și dezinformare.
Moderarea discuțiilor în timp real este o provocare pentru o varietate de platforme care utilizează chat vocal live, de la servicii centrate pe jocuri video, cum ar fi Discord, până la noua caracteristică audio live Twitter Spaces. Facebook ar fi, de asemenea, interesat de o ofertă.
„Audio prezintă un set fundamental de provocări pentru moderare decât comunicarea bazată pe text. Este mai efemer și este mai greu de cercetat și de acționat ”, a declarat directorul juridic al Discord, Clint Smith, într-un interviu.
Instrumentele pentru detectarea conținutului audio problematic rămân în urmă față de cele utilizate pentru identificarea textului, iar transcrierea și examinarea chaturilor vocale înregistrate este un proces mai greoi pentru oameni și mașinării. Lipsa unor indicii suplimentare, cum ar fi semnalele vizuale ale videoclipurilor sau comentariile text însoțitoare, o pot face și mai provocatoare.
„Cea mai mare parte din ceea ce aveți în ceea ce privește instrumentele de moderare a conținutului sunt într-adevăr construite în jurul textului”, a declarat Daniel Kelley, director asociat al Centrului pentru Tehnologie și Societate al Ligii Anti-Defăimare.
Nu toate companiile realizează sau păstrează înregistrări vocale pentru a investiga rapoarte privind încălcarea regulilor. În timp ce Twitter păstrează spațiul audio timp de 30 de zile sau mai mult dacă există un incident, Clubhouse spune că își șterge înregistrarea dacă o sesiune live se încheie fără un raport imediat al utilizatorului, iar Discord nu înregistrează deloc.
În schimb, Discord, care s-a confruntat cu presiuni pentru a reduce conținutul toxic, precum hărțuirea și materialul supremacist în chat-urile text și vocale, oferă utilizatorilor comenzi pentru a dezactiva sau bloca oamenii și se bazează pe ei pentru a semnaliza problemele.
Astfel de modele comunitare pot fi împuternicite pentru utilizatori, dar pot fi ușor abuzate și supuse unor prejudecăți.
Clubhouse, care a introdus în mod similar controalele utilizatorilor, a examinat dacă acțiunile precum blocarea, care pot împiedica utilizatorii să se alăture anumitor camere, pot fi folosite pentru a hărțui sau exclude utilizatorii.
Provocările moderării sunetului live se opun luptei globale, mai largi, asupra moderării conținutului pe marile platforme de socializare, care sunt criticate pentru puterea și opacitatea lor și au formulat plângeri atât de la dreapta, cât și de la stânga ca fiind prea restrictive sau periculos permisive.
De asemenea, platformele online s-au luptat mult timp pentru a reduce conținutul live dăunător sau grafic de pe site-urile lor. În 2020, un videoclip live al unui sinucigaș pe Facebook Inc s-a răspândit pe mai multe site-uri. În 2019, o filmare într-o sinagogă germană a fost transmisă în direct pe site-ul de jocuri deținute de Amazon Inc, Twitch.
„Este foarte important ca aceste servicii să învețe din lansarea streamingului video pentru a înțelege că se vor confrunta cu aceleași tipuri de întrebări”, a declarat Emma Llanso, membru al Consiliului consultativ pentru siguranță al Twitch. Ea a adăugat: „Ce se întâmplă atunci când oamenii doresc să folosească serviciul dvs. pentru a transmite în flux sunetul unei întâlniri cu poliția sau a unui atac violent?”
Duminica trecută, în timpul ședinței publice a companiei, cofondatorul Clubhouse, Paul Davison, a prezentat o viziune asupra modului în care aplicația doar pentru invitații actuale ar juca un rol mai mare în viața oamenilor – găzduind totul, de la mitinguri politice până la întâlniri oficiale ale companiilor.
Camerele, în prezent plafonate la 8.000 de persoane, ar escalada „până la infinit”, iar participanții ar putea câștiga bani din „bacșișuri” plătite de public.
Cea mai recentă rundă de finanțare a companiei din San Francisco, în ianuarie, a evaluat-o la 1 miliard de dolari, potrivit unei surse familiare cu această chestiune. Finanțarea a fost condusă de Andreessen Horowitz, o firmă de capital de risc din Silicon Valley.
Întrebat cum lucrează Clubhouse pentru a detecta conținut periculos pe măsură ce serviciul s-a extins, Davison a spus că startup-ul mic și-a încorporat echipa de încredere și siguranță pentru a rezolva problemele în mai multe limbi și a investiga rapid incidentele.
Aplicația, care a spus că are 10 milioane de utilizatori activi săptămânal, are un personal cu normă întreagă care a atins recent doar două cifre. O purtătoare de cuvânt a spus că folosește atât recenzori interni, cât și servicii terțe pentru a modera conținutul și a angajat consilieri pe această temă, dar nu ar face comentarii cu privire la metodele de revizuire sau de detectare.
În anul de când a început, Clubhouse s-a confruntat cu critici în legătură cu rapoarte de misoginism, antisemitism și dezinformare COVID-19 pe platformă, în ciuda regulilor împotriva rasismului, discursurilor de ură, abuz și informații false.
Clubhouse a declarat că investește în instrumente de detectare și prevenire a abuzurilor, precum și în funcții pentru utilizatori, care pot stabili reguli pentru camerele lor, pentru a modera conversațiile.
Modificarea corectă a conținutului audio poate contribui la declanșarea de noi valuri de afaceri și de utilizare pentru noi servicii și caracteristici lansate de rețelele sociale majore.
O sursă a declarat pentru Reuters că viitoarea platformă audio live „Fireside” a antreprenorului miliardar Mark Cuban, care se descrie ca o „platformă responsabilă din punct de vedere social”, va fi organizată pentru a evita problemele cu care s-au confruntat alte rețele.
Twitter, care s-a confruntat mult timp cu critici pentru capacitatea sa de a reduce abuzurile, testează în prezent Spaces cu 1.000 de utilizatori, care au început cu femei și persoane din grupuri marginalizate.
Gazdele primesc controale pentru a putea modera, iar utilizatorii pot raporta probleme. Dar Twitter urmărește, de asemenea, investițiile în „detectarea proactivă” – de exemplu, încorporarea transcrierilor audio în instrumentele pe care Twitter le folosește în prezent pentru a detecta tweet-urile cu probleme fără a fi semnalate de utilizatori, a spus Andrew McDiarmid din echipa de încredere a produselor Twitter.
McDiarmid a declarat că Twitter încă decide cum să traducă regulile existente, cum ar fi etichetarea dezinformării, care se aplică și noului serviciu, în arena audio.
Până când Twitter nu își dă planul de moderare, persoanelor care au încălcat recent regulile site-ului nu li se permite accesul la noua funcție.