Regulamentul intern al Facebook despre sex, terorism şi violenţă

Regulamentul intern al reţelei de socializare Facebook referitor la o serie de chestiuni sensibile, precum sex, terorism şi violenţă, a fost dezvăluit, duminică seară, într-o anchetă publicată de cotidianul britanic The Guardian. Aceste politici interne îi ghidează pe moderatorii de pe Facebook în privinţa alegerii conţinuturilor care pot fi autorizate spre a fi publicate online.

22 mai 2017, 08:07
Regulamentul intern al Facebook despre sex, terorism şi violenţă

Regulile secrete ale Facebook şi ghidul de practici utilizat pentru a decide conţinuturile pe care cei peste 2 miliarde de utilizatori au voie să le publice pe această reţea de socializare au fost dezvăluite pentru prima dată în urma unei anchete a cotidianului The Guardian. Aceste dezvăluiri vor genera cel mai probabil dezbateri aprinse despre rolul şi etica profesională a companiei americane, afirmă jurnaliştii britanici.

Reporterii şi editorii de la The Guardian au citit peste 100 de manuale de pregătire a angajaţilor Facebook, foi de calcul şi organigrame, care oferă o serie de dezvăluiri fără precedent despre metodele pe care Facebook le-a folosit pentru a modera conţinuturile online asociate unor chestiuni precum violenţa, discursurile ce incită la ură, terorismul, pornografia, rasismul şi automutilarea.

Există politici de moderare chiar şi în privinţa competiţiilor sportive trucate şi a canibalismului.

Citeşte şi UE a amendat Facebook cu 110 milioane de euro pentru că a transmis informaţii înşelătoare. Reacţia Facebook

Acest dosar de anchetă al publicaţiei The Guardian, denumit „The Facebook Files” („Dosarele Facebook”), a fost realizat într-o perioadă în care compania americană se află sub o presiune politică uriaşă în Europa şi în Statele Unite.

Regulamentul intern al Facebook reflectă dificultăţile pe care le întâmpină managerii companiei atunci când trebuie să reacţioneze la o serie de provocări noi, precum conceptul „revenge porn” („porno din răzbunare”), dar şi dificultăţile moderatorilor, care spun că sunt copleşiţi de volumul de muncă – ceea ce înseamnă că, adeseori, ei au la dispoziţie „doar 10 secunde” pentru a lua o decizie în privinţa unui conţinut publicat pe reţea, potrivit News.ro.

„Facebook nu poate să păstreze controlul asupra conţinuturilor sale. A devenit prea mare, a crescut prea mult şi prea repede”, a dezvăluit o sursă.

Mulţi dintre moderatori s-au declarat îngrijoraţi în legătură cu inconsecvenţa şi natura particulară a unora dintre politicile companiei. Cele referitoare la conţinuturile sexuale, de exemplu, sunt cele mai complexe şi mai derutante.

Un document intern afirmă că Facebook revizuieşte peste 6,5 milioane de rapoarte pe săptămână despre potenţiale conturi false – cunoscute sub acronimul FNRP (fake, not real people / fals, nu e o persoană reală).

Folosind mii de slide-uri şi fotografii, Facebook a implementat un ghid de reguli care îngrijorează multe persoane, care spun că reţeaua de socializare este de acum înainte un publisher şi trebuie să depună eforturi mai mari pentru a elimina conţinuturile ce incită la ură, intimidante şi violente.

Acest regulament intern ar putea să îi alarmeze şi pe avocaţii cauzei libertăţii de exprimare, care sunt îngrijoraţi de rolul de facto pe care Facebook îl deţine, riscând să devină cel mai mare cenzor din lume.

Ambele tabere vor cere cel mai probabil o mai mare transparenţă, notează The Guardian.

Jurnaliştii acestui cotidian britanic au putut să analizeze documentele furnizate moderatorilor Facebook pe parcursul ultimului an.

În urma parcurgerii acelor documente, ei au ajuns la următoarele concluzii:

Remarci precum „Cineva l-a împuşcat pe Trump” ar trebui să fie şterse, deoarece, în calitatea lui de şef al statului, Donald Trump intră în categoria persoanelor protejate. Sunt însă permise afirmaţii precum „Pentru a rupe gâtul unei târfe, asigură-te că toată presiunea e plasată pe mijlocul gâtului ei” şi „du-te dracului şi mori” – deoarece aceste fraze nu sunt considerate ameninţări credibile.

Videoclipuri cu morţi violente – deşi sunt marcate şi incluse în categoria conţinuturilor deranjante, ele nu sunt întotdeauna şterse, deoarece pot să contribuie la creşterea gradului de conştientizare în rândul publicului asupra unor chestiuni precum maladiile mintale.

Citeşte şi Val de probleme de afişare a paginilor de Facebook raportate în întreaga lume

Unele fotografii ce prezintă abuzuri fizice non-sexuale şi intimidarea sau agresarea copiilor – nu trebuie să fie şterse sau „modificate” decât în cazul în care conţin elemente sadice sau dau impresia că sărbătoresc acel moment.

Fotografii cu abuzuri asupra animalelor pot fi distribuite – doar imaginile extrem de supărătoare pot fi marcate în categoria „deranjante”.

Toate creaţiile artistice „handmade” ce arată nuditate şi raporturi sexuale sunt permise, însă creaţiile artistice realizate digital ce arată activităţi sexuale nu sunt permise.

Videoclipurile ce prezintă avorturi sunt permise, atât timp cât ele nu conţin nuditate.

Facebook va permite utilizatorilor să distribuie în livestream tentative de automutilare, deoarece platforma „nu doreşte să cenzureze sau să pedepsească oamenii aflaţi deja în suferinţă”.

Orice persoană care are peste 100.000 de followers pe această reţea de socializare este desemnată „persoană publică” – fapt care neagă acestor utilizatori dreptul la întreaga protecţie oferită persoanelor private.

Alte tipuri de remarci care sunt permise pe Facebook, conform acestor documente dezvăluite de The Guardian: „Fetiţa trebuie să ţină secret acest lucru înainte ca tăticul să îi spargă faţa” şi „Sper că cineva te va ucide”. Aceste ameninţări sunt considerate ori generale, ori necredibile.

În unul dintre documente, Facebook recunoaşte că „oamenii folosesc un limbaj violent pentru a-şi exprima frustrarea online” şi consideră că „este neprimejdios ca ei să facă acest lucru” pe site.

„Acei utilizatori simt că problema nu se va întoarce împotriva lor şi se simt indiferenţi faţă de persoana pe care o ameninţă, din cauza lipsei de empatie creată de comunicarea pe astfel de dispozitive, în opoziţie cu situaţiile în care oamenii se află faţă în faţă”, se afirmă în acel document al companiei americane.

„Putem să spunem că limbajul violent este cel mai adesea necredibil, până la apariţia unor elemente specifice de limbaj care ne oferă un motiv rezonabil să credem că acolo nu mai este vorba de o simplă exprimare a emoţiilor, ci de o tranziţie spre un complot sau o acţiune voluntară. Din această perspectivă, expresii precum «te voi ucide» şi «du-te dracului şi mori» nu sunt credibile, ci reprezintă o exprimare violentă a nemulţumirii şi a frustrării”.

„Oamenii îşi exprimă în mod curent dispreţul sau dezacordul prin ameninţări sau invocând violenţa, în general în maniere amuzante şi neserioase”, precizează acelaşi document.

Facebook a recunoscut, de altfel, în mod public că „nu toate conţinuturile dezagreabile sau deranjante violează standardele companiei noastre”.

Monika Bickert, directorul departamentului de management al politicilor globale din cadrul companiei Facebook, spune că reţeaua de socializare are 2 miliarde de utilizatori şi că este dificil să se ajungă la un consens în privinţa conţinuturilor care trebuie să fie permise pe această platformă online.

„Avem o comunitate cu adevărat diversă şi globală, iar oamenii vor avea întotdeauna idei foarte diferite despre ceea ce este OK să distribui. Indiferent de locul în care tragi linia, vor exista mereu anumite zone gri. De exemplu, linia dintre satiră şi umor şi conţinuturile nepotrivite este uneori foarte gri. E foarte dificil să decizi dacă un conţinut aparţine site-ului sau nu”, a adăugat Monika Bickert.

„Ne simţim responsabili faţă de comunitatea noastră, pentru a o păstra în siguranţă, şi ne simţim răspunzători. Este responsabilitatea noastră de a administra corect această chestiune. Este un angajament al companiei. Vom continua să investim, proactiv, pentru a menţine site-ul sigur, dar vrem şi să oferim putere oamenilor, pentru ca ei să ne raporteze orice conţinut ce încalcă standardele noastre”, a mai spus ea.

De asemenea, Monika Bickert consideră că anumite comentarii ofensatoare pot să încalce politicile Facebook în anumite contexte, dar nu şi în altele.

Politicile Facebook despre o serie de chestiuni precum morţi violente, imagini de abuzuri fizice non-sexuale asupra minorilor şi acte de cruzime faţă de animale evidenţiază modul în care compania americană încearcă să înainteze „pe un teren minat”.

„Videoclipurile cu morţi violente sunt deranjante, însă pot să crească gradul de conştientizare. Pentru videoclipuri, noi credem că minorii au nevoie de protecţie, iar adulţii au nevoie să aibă posibilitatea de a alege. Marcăm în categoria «deranjant» videoclipurile cu morţile violente ale unor oameni”, se afirmă în „Dosarele Facebook”.

Astfel de filmări trebuie să fie „ascunse de minori” dar nu trebuie şterse automat, deoarece pot fi „valoroase în creşterea gradului de conştientizare asupra tendinţelor de automutilare, bolilor mintale, crimelor de război şi altor chestiuni importante”.

Referitor la abuzurile non-sexuale asupra copiilor, ghidul intern al Facebook precizează: „Nu modificăm fotografii cu abuzuri asupra copiilor. Marcăm în categoria «deranjant» videoclipuri cu abuzuri asupra copiilor. Eliminăm imagini cu abuzuri asupra copiilor dacă acestea sunt distribuite conţinând sadism şi celebrare”.

Unul dintre slide-uri explică faptul că Facebook nu şterge automat dovezile unui abuz non-sexual asupra unui copil, pentru a permite ca materialul să fie distribuit, „iar copilul va putea fi identificat şi salvat, însă noi adăugăm un nivel suplimentar de protecţie pentru a proteja publicul”. Această procedură ar putea fi considerată un avertisment ce anunţă că un anumit videoclip este deranjant.

Facebook a confirmat că există „anumite situaţii în care permitem imagini cu un abuz non-sexual asupra unui copil, cu scopul de a ajuta copilul în cauză”.

Politicile Facebook în privinţa abuzurilor comise asupra animalelor sunt şi ele explicate. „Permitem fotografii şi videoclipuri ce documentează abuzuri asupra animalelor, pentru a creşte gradul de conştientizare, dar putem să adăugăm protecţii suplimentare pentru public în cazul unor conţinuturi care sunt considerate extrem de deranjante de către utilizatori”, se afirmă într-un slide al companiei americane.

„În general, imaginea unui abuz asupra unui animal poate fi distribuită pe site. Anumite imagini extrem de deranjante pot fi semnalate cu menţiunea «conţinut deranjant»”.

Fotografii cu animale mutilate, inclusiv cele care arată acte de tortură, pot fi marcate cu aceeaşi menţiune, fără să fie şterse. Moderatorii Facebook pot, de asemenea, să permită fotografia unui abuz, în care un om loveşte sau bate un animal.

Poziţia Facebook în această chestiune este următoarea: „Permitem oamenilor să distribuie imagini cu abuzuri asupra animalelor, pentru a creşte gradul de conştientizare, dar condamnăm abuzul şi eliminăm conţinutul care celebrează actele de cruzime asupra animalelor”.

Documentele arată faptul că Facebook a emis un nou ghid de practici în privinţa nudităţii, după scandalul apărut în 2016 în urma eliminării unei fotografii legendare, realizată în timpul Războiului din Vietnam, deoarece fetiţa din imagine era goală.

Facebook permite în prezent „excepţii cu valoare de ştire” sub incidenţa regulamentului său referitor la „teroarea războiului”, însă a tras linia la imaginile cu „nuditate infantilă în contextul Holocaustului”.

Reprezentanţi ai Facebook au declarat pentru The Guardian că reţeaua de socializare foloseşte un software pentru a intercepta anumite conţinuturi cu grafică explicită înainte ca acestea să apară pe site. „Însă vrem ca oamenii să poată să discute global şi evenimentele curente… aşadar, contextul în care o imagine violentă este distribuită contează uneori”.

Unii critici din Statele Unite şi Europa au cerut ca Facebook să fie reglementată în acelaşi fel în care sunt reglementaţi publisherii şi radiodifuzorii din mainstream.

Însă Monika Bickert consideră că Facebook este „un nou fel de companie”.

„Nu este o companie tradiţională de tehnologie. Nu este o companie tradiţională de media. Noi construim tehnologie şi ne simţim responsabili faţă de modul în care ea este utilizată. Noi nu scriem ştirile pe care oamenii le citesc pe această platformă”, a adăugat ea.

Citeşte şi Cei mai bogaţi oameni ai lumii au pierdut 35 de miliarde de dolari din cauza turbulenţelor politice

Un raport al parlamentarilor britanici, publicat pe 1 mai, afirmă că „cele mai mari şi mai bogate companii de social media se află ruşinos de departe de punctul în care ar trebui să ia măsuri suficiente pentru a îngrădi conţinuturile ilegale şi periculoase sau de a implementa standarde comunitare potrivite sau de a-şi păstra utilizatorii în siguranţă”.

Sarah T. Roberts, expert în activităţile de moderare a conţinuturilor online, a declarat: „Atunci când eşti o mică comunitate online, un grup de persoane care împărtăşesc principii şi valori, înseamnă ceva, dar e cu totul altceva atunci când dispui de un procent ridicat din populaţia lumii şi le spui: «distribuie singur». Ajungi într-o mare harababură”.

„Apoi, când faci profit din această practică, intri într-o situaţie dezastruoasă”, a adăugat experta britanică.

Facebook a întâmpinat dificultăţi în mod constant atunci când a trebuit să analizeze ştiri şi „valoarea de conştientizare” a unor imagini violente. Compania a fost aspru criticată, recent, pentru că nu a eliminat videoclipul în care Robert Godwin a fost asasinat în Statele Unite şi videoclipul în care un tată şi-a ucis fiica în Thailanda. Pe de altă parte, Facebook a jucat un rol important în distribuirea la scară globală a videoclipurilor care arătau poliţişti din Statele Unite ucigând cetăţeni, alături de alte abuzuri guvernamentale.

În 2016, Facebook a eliminat un videoclip ce prezenta imagini imediat după uciderea prin împuşcare a lui Philando Castile de către poliţişti, însă a reintrodus acel clip, ulterior, spunând că ştergerea sa a fost „o eroare”.