În fiecare minut al fiecărei zile, 500 de ore de material video este încărcat pe YouTube, 450 000 de tweeturi și 2,5 milioane amețitoare de postări sunt puse pe Facebook. Ne înecăm în conținut, iar în toată cantitatea asta cel mai probabil o mare parte va fi considerată ca fiind jignitoare – lucruri care sunt violente, rasiste, misogine și așa mai departe – și va primit report.
Dar ce se întâmplă odată ce materialul a primit report? Cine are grijă de următorii pași?
Regizorii Moritz Riesewieck și Hans Block au făcut un documentar care explorează exact acea întrebare, iar răspunsul e mult mai deprimant decât ți-ai fi imaginat. The Cleaners a avut premiera britanică la Sheffield Doc/Fest în iunie, așa că m-am întâlnit cu echipa la scurt timp după ca să discutăm cum organizațiile de rețele sociale curăță internetul cu prețul vieții altora.
VICE: Spuneți-mi ce anume v-a atras la subiectul ăsta și de ce ați vrut să faceți un film despre el?
Hans Block: În 2013, un videoclip cu un copil abuzat a apărut pe Facebook și ne-am întrebat cum de s-a întâmplat asta, pentru că materialul există cu siguranță în lume, dar de obicei nu pe rețelele sociale. Așa c-am început să ne întrebăm dacă oamenii filtrează ce e pe web sau selectează ce vedem. Am aflat că sunt mii de oameni care fac jobul ăsta zilnic în fața ecranului, revizuiesc ce ar trebuie să vedem sau nu. Am învățat că o mare parte din muncă e externalizată în lumea în curs de dezvoltare, iar unul din punctele principale se află în Manila, iar aproape nimeni nu știe asta.
Am aflat foarte rapid că atunci când încerci să-i contactezi pe cei care lucrează la asta descoperi că este o industrie secretoasă în care compania încearcă să-i oprească din a vorbi. Companiile au multe politici private și îi verifică pe angajați ca să se asigure că nimeni nu vorbește cu cei din afară. Ba chiar folosesc cuvinte codate. Când un angajat lucrează pentru Facebook, trebuie să spună că lucrează pentru „proiectul bursucul melivor”. Este o adevărată atmosferă de frică și presiune, pentru că sunt represalii pentru muncitori; trebuie să plătească 10 000 de euro în amenzi dacă vorbesc despre ceea ce fac. Este o clauză trecută în acordul lor de nedivulgare. Ba chiar se tem că vor ajunge la închisoare.
Moritz Riesewieck: Există două moduri prin care conținutul este dat mai departe în Filipine. Primul este un prefiltru, un algoritm, o mașinărie care poate analiza forma a, să zicem, un organ sexual sau culoarea sângelui sau diverse nuanțe de piele. Așa că oricând un prefiltru analizează și se prinde că ceva e inadecvat, mașinăria va trimite conținutul în Filipine și moderatorii de conținut vor verifica a doua oară ca să vadă dacă mașinăria avea dreptate. Al doilea mod este atunci când utilizatorul marchează conținutul ca inadecvat.
Deci algoritmul ăsta de prefiltrare este capabil în mod efectiv să identifice rasa unor persoane sub justificarea a ce? Încearcă să detecteze teroriști sau găști?
Hans: Am încercat să ne dăm seama cum funcționează exact această mașinărie și ăsta este unul din cele mai mari secrete pe care le dețin companiile. Nu știm pentru ce este antrenată mașinăria în termeni de detectarea conținutului. Sunt lucruri evidente, ca o armă sau un organ sexual gol, dar unii din moderatori ne-au spus că și culoarea pielii este detectată ca să caute chestii precum terorismul, da.
Ce se întâmplă când ceva este șters? Este scos doar de la utilizatorul care l-a urcat pe net sau este șters complet?
Hans: Se șterge complet. Deși într-un anumit caz, e diferit: pornografia infantilă. De fiecare dată când un moderator de conținut revizuiește pornografie infantilă, trebuie să verifice în profunzime, să raporteze adresa IP-ului, locația, numele utilizatorului – toate informațiile pe care le au, practic. Astea sunt trimise la o organizație privată în SUA unde sunt analizate toate informațiile și apoi sunt date mai departe la poliție.
Sunt moderatorii pregătiți adecvat? Și aici mă refer la înțelegerea contextului a ceea ce revizuiesc și de asemenea ce semnificație pot avea deciziile pe care le iau?
Moritz: Aș putea spune că ăsta este cel mai mare scandal pe această temă, pentru că angajații sunt foarte tineri; au 18 sau 19 ani și tocmai ce și-au terminat studiile. Companiile recrutează oamenii de pe stradă pentru aceste roluri; li se cere un profil foarte scăzut de abilități, mai exact trebuie doar să știe cum să folosească un computer. Apoi li se face o instruire de trei până la cinci zile, și în conformitate cu asta trebuie să învețe toate instrucțiunile de la Facebook, Google, YouTube, etc. Sunt sute de exemple pe care trebuie să le asimileze. De exemplu, trebuie să memoreze 37 de organizații teroriste – toate steagurile lor, uniformele, modul de a vorbi – toate astea în trei până la cinci zile. Apoi ei trebuie să trimită instrucțiunile înapoi spre companie pentru că se tem că cineva se va scăpa.
Altă realitate oribilă este că muncitorii au doar câteva secunde ca să ia o decizie. Ca să îndeplinească cota de 25 000 de imagini pe zi, asta înseamnă că au trei până la cinci secunde pentru fiecare în parte. Nu ai cum să analizezi textul unei imagini sau să te asiguri întru totul că iei decizia corectă când trebuie să revizuiești atât de mult conținut. Când dai click, ai alte zece opțiuni pe care trebuie să le accesezi pe baza motivelor de ștergere – nuditate, terorism, automutilare, etc. Apoi folosesc etichetarea moderatorilor de conținut ca să antreneze algoritmul. Facebook muncește din greu să instruiască AI să facă acest job în viitor.
Deci angajații dau mai departe pregătirea lor pentru un algoritm care le va lua într-un final jobul?
Hans: Nu va fi posibil ca inteligența artificială să facă acest job, nu cred asta, pentru că poate analiza ce este în imagine, dar este necesară citirea conținutului, să interpreteze ce vede. Dacă vezi pe cineva într-o luptă, poate fi o scenă dintr-o piesă de teatru sau un film. Genul ăsta de treabă e ceva ce o mașinărie nu va fi niciodată capabilă să o facă.
Sunt angajații instruiți să facă față traumelor și lucrurilor dure pe care urmează să le vadă – moarte, viol, pornografie infantilă, etc?
Moritz: Nu sunt instruiți pentru asta. Există o moderatoare în film care, chiar din prima ei zi, după instructaj și semnarea contractului, și-a dat seama ce face acolo. A fost nevoită să revizuiască pornografie infantilă în prima ei zi de muncă și i-a spus liderului echipei că nu poate să facă asta, iar răspunsul primit a fost: „Ai semnat contractul. E jobul tău să faci asta”. Nu există o pregătire psihologică pentru ei ca să-și desfășoare munca. Au o sesiune trimestrială unde întreaga echipă este adusă într-o cameră și un psiholog întreabă: „Are cineva vreo problemă?” Bineînțeles că toți stau cu ochii în pământ și se tem să vorbească despre problemele lor, pentru că sunt speriați că-și vor pierde jobul. Există un motiv întemeiat pentru care Facebook își externalizează munca în Filipine, pentru că există o mare presiune socială atașată: salariul nu este doar al lor; este adesea pentru toată familia, de la opt până la zece oameni. Nu e ușor să-ți dai demisia.
Care este amploarea operațiunii acolo?
Moritz: Nu putem ști cantitatea exactă, dar credem că, doar pentru Facebook, sunt în jur de 10 000 de oameni. Apoi dacă adaugi toate celelalte companii care își externalizează munca în Filipine, ajungem la aproximativ 100 000 de oameni. Este o mare, mare industrie.
Favorizarea este un element explorat interesant în film. Ai o moderatoare de conținut care se descrie ca fiind o „prevenitoare a păcatului” și este foarte religioasă, în timp ce o altă persoană îl susține pe președintele Rodrigo Duterte și poziția sa violentă împotriva infracțiunilor și a drogurilor. Își dau mai departe opiniile politice și etice într-o activitate care ar trebui să fie obiectivă?
Hans: Oricând i se pune o întrebare Facebook-ului despre instrucțiunile sale, încearcă să le promoveze și să ateste că ele sunt obiective și că pot fi executate de oricine. Asta nu e adevărat și face parte din subiectul filmului. Este foarte important ce tip de trecut cultural ai. Sunt atâtea zone în instrucțiuni care-ți cer să le interpretezi și să-ți folosești intuiția ca să decizi ce vezi.
Religia joacă un rol important în Filipine, catolicismul este foarte puternic. Ideea sacrificiului este crucială pentru cultura lor, ideea de a te sacrifica ca să scapi de păcate – să faci o lume mai bună. Așa că, pentru muncitori, este văzută ca o misiune religioasă. Folosesc religia ca să dea un înțeles jobului, iar asta îi ajută să o facă pentru un timp mai lung, pentru că atunci când ești traumatizat de muncă încerci să-i găsești un sens. La un nivel politic, Duterte e foarte puternic acolo și oamenii cred în ce face el. Aproape toți moderatorii de conținut cu care am vorbit erau foarte mândri că a câștigat alegerile. Unii oameni văd jobul ăsta ca pe o extensie a muncii lui, așa că vor șterge ce nu le place în concordanță cu viziunile politice ale țării.
Toate privirile sunt îndreptate asupra Facebook-ului în momentul de față după momentul Cambridge Analytica. Cum crezi că vor evolua lucrurile în zona moderării de conținut?
Moritz: Zuckerberg, de fiecare dată când este întrebat într-o declarație, spune că va angaja alți 20 000 de oameni în rețea pentru siguranța conținutului. Dar nu asta e soluția. Nu este vorba de numărul de muncitori – poți să angajezi alți 20 000 de muncitori filipinezi pe salariul minim ca să facă treaba și nu va rezolva problema cu cenzura online. Ce trebuie el să facă este să angajeze jurnaliști foarte bine pregătiți. Facebook nu mai e doar un loc unde să împărtășești poze din vacanță sau să inviți pe cineva la aniversarea ta; e cea mai mare infrastructură de comunicare din lume. Din ce în ce mai mulți oameni folosesc Facebook ca să se informeze, deci este foarte important cine decide ce este publicat. Gândește-te dacă altcineva ar decide ce se publică pe prima pagina a a ziarului Guardian mâine; ar fi un dezastru și un scandal, dar asta este situația curentă a companiilor de rețele sociale. Asta trebuie să se schimbe, dar costă bani, și unicul scop al companiilor este să câștige mai mulți… de aceea angajează muncitori din Filipine pe salariul minim.
Unele din cererile de moderare, cum ar fi terorismul, vin chiar direct de la guvernul SUA, nu?
Moritz: Absolut. Lista organizațiilor teroriste care trebuie să fie interzise pe Facebook vine chiar de la Ministerul Apărării, dar evident că în diverse părți ale lumii avem idei diferite despre cine e terorist și cine este un luptător pentru libertate. Asta este o minciună pe care a spus-o mereu Facebook; că sunt o platformă neutră, doar o unealtă tehnică pentru utilizator. Nu e adevărat; iau decizii editoriale în fiecare zi.
Cum vi s-a părut că se descurcă oamenii cu care ați vorbit și au părăsit jobul ăsta? Sunt reduși la tăcere sau urmăriți într-un fel?
Hans: Când făceam căutări, a fost un moment când compania (de moderare a conținutului) ne fotografia și apoi distribuia fotografiile prin companie, chiar și foștilor angajați, cu un avertisment că dacă vorbesc cu noi vor avea probleme. Compania împrăștie multă frică. Un angajat ne-a contactat pe Facebook și era foarte furios pe noi, ne-a spus să părăsim orașul sau ni se va întâmpla ceva rău. Deci chiar și foștii angajați încă se tem să vorbească după ce pleacă. Am avut avocați în echipă ca să-i protejăm, totuși; știam ce era scris în contractele lor și ce putem spune în filmul nostru.
Una din tragediile cele mai mari din film este că spune povestea unui angajat care s-a sinucis. Din câte știi asta a fost o anomalie sau e ceva ce se întâmplă la o scală mai mare și nu este raportat?
Moritz: Este un lucru complex care se întâmplă în companie. Rata sinuciderilor este foarte ridicată. De fiecare dată când am vorbit cu moderatorii de conținut, aproape toată lumea știe de un caz în care cineva s-a sinucis din cauza muncii. Este o problemă a industriei. D-aia a fost important să includem asta în filmul nostru. Au nevoie să angajeze psihologi pregătiți ca să-i protejeze. Bărbatul în cauză care s-a sinucis a lucrat la revizuirea conținutului cu automutilari și a cerut să fie scos din asta de mai multe ori.
Crezi că aceste companii sunt conștiente că oamenii se sinucid din cauza muncii?
Hans: Bună întrebare. Cred că da. Știu, pentru că noi am făcut filmul, dar de asta este și problematică externalizarea; e foarte ușor pentru Facebook să zică: „Nu știm despre asta fiindcă nu este compania noastră și nu suntem responsabili pentru că nu noi îi angajăm și nu suntem responsabili pentru condițiile de muncă”. Ăsta este prețul pe care noi și Facebook îl plătim pentru curățarea rețelelor sociale – oamenii se sinucid. Trebuie să punem presiune asupra companiilor ăstora cât de tare putem.
Articolul a apărut inițial pe VICE UK.