Articolul a apărut inițial în VICE News
Compania a anunțat cu aplomb numerele în noul său raport Community Standards Enforcement, care vrea să arate că platforma exercită mai mult control asupra domeniului său. Compania a spus și că instrumentele automatizate pe care le folosește reușesc să oprească mai mult conținut malițios înainte ca utilizatorii să apuce să-l vadă.
Aceste ștergeri au avut în vedere mai mult producătorii de spam, care căutau să inunde Facebook cu un volum mare de conținut, arată raportul. Chiar dacă majoritatea acestor conturi false au fost șterse în câteva minute de la creare, 5% din toți utilizatorii lunari noi tot sunt falși.
Raportul a informat și despre alte zone problematice pe care Facebook s-a concentrat în primul trimestru. Instrumentele și moderatorii săi au eliminat 33,6 milioane de materiale care arătau violență sau erau explicite, precum și 6,4 milioane care constau în propagandă teroristă, conform raportului.
„E imposibil să construiești un sistem unic care să funcționeze pe toate ariile și să reușească să prindă tot la timp”, a spus fondatorul Facebook, Mark Zuckerberg. „Sistemul nu e perfect. De fiecare dată când încerci să trasezi o limită legată de tipul de conținut care e acceptabil, mereu vor fi oameni care vor crede că greșești.”
Scala problemelor cu care se confruntă o platformă cu peste 2,38 miliarde de utilizatori lunari activi este șocantă. Cele 2,19 miliarde de conturi de Facebook false care au fost închise în primul trimestru al acestui an reprezintă o creștere accelerată în comparație cu cele 1,2 miliarde de conturi închise în primul trimestru din 2018.
Facebook și-a intensificat măsurile de securitate doar după ce s-a ajuns la scandaluri publice pe această temă. Însă felul în care le aplică încă rămâne destul de ambiguu. Datele oficiale Facebook arată că sunt mai multe postări detectate și șterse dintre cele care instigă la ură, însă instrumentele sale automatizate detectează mai greu ca în trecut acest tip de postări în comparație cu altele care sunt interzise.
„Asta ne dă un sentiment de progres însă ne și arată cât de multe sunt încă de făcut”, a spus Zuckerberg, făcând și apel către forțele publice pentru o reglementare mai bună a problemelor de limbaj și de siguranță.
Chiar și cifrele publicate recent ridică niște întrebări. Facebook a angajat un grup de consiliere extern, de la The Justice Collaboratory din cadrul Facultății de drept Yale, pentru a monitoriza metodele companiei de evaluare și aplicare a politicilor sale de siguranță. Însă raportul corespondent al grupului descrie un proces de monitorizare care nu are acces la inginerii care lucrează zilnic la filtrarea conținutului aprobat.
Unii cercetători au exprimat îngrijorări că orientarea curentă a strategiei Facebook, de a îndemna utilizatorii să interacționeze mai mult în grupuri private, ar putea face ca deciziile companiei despre conținutul interzis să fie mai dificil de analizat și aplicat.
Zuckerberg a adăugat și că Facebook se consultă în prezent cu forțele de ordine și cu guvernele pentru a-i ajuta să monitorizeze trecerea companiei la comunicații mai criptate, inclusiv referitor la vânzările potențiale de arme, droguri și alte obiecte interzise.
„Recunoaștem că va fi mai greu să identificăm toate tipurile de conținut dăunător”, a afirmat Zuckerberg.
Criticile adresate felului în care compania își aplică politicile de filtrare a conținutului au dat și apă la moară propunerilor de despărțire a companiei în câteva companii mai mici, având în vedere că Facebook deține și Instagram, și Whatsapp. Senatorul democrat Elizabeth Warren a argumentat ideea împărțirii giganților din Silicon Valley în companii mai mici pentru a stimula competiția. Co-fondatorul Facebook Chris Hughes a adus, de asemenea, argumente pentru împărțirea Facebook în mai multe companii, într-un editorial din New York Times, făcând referire la puterea sa imensă asupra comunicațiilor globale.
Zuckerberg a respins aceste argumente. După ce a încercat să facă dominația Facebook asupra pieței reclamelor digitale să pară mai mică, Zuckerberg a argumentat că o împărțire a companiei ar îngreuna și mai mult eforturile de a curăța platformele de conținutul periculos.
„Într-un singur deceniu, succesul companiei ne-a permis să finanțăm aceste eforturi la cel mai înalt nivel.”, a spus Zuckerberg, referindu-se la cele 3,7 miliarde de dolari pe care a promis că-i va cheltui pe securitate anul acesta. „Cred că partea din bugetul nostru care merge către siguranță este mai mare decât încasările Twitter pentru anul trecut".