Questo sito contribuisce all'audience di

Ecco le linee guida di Facebook per punire gli abusi degli utenti

di Posted on
Condivisioni

SECONDO le linee guida di Facebook, 17 pagine di manuale, ogni moderatore sa esattamente cosa può rimanere in bacheca e cosa va eliminato. Dopo la segnalazione di un abuso delle regole del social network, interviene un team dedicato dopo una massiccia operazione di filtraggio di aziende terze che fanno questo lavoro in appalto. Diviso in categorie "Sesso e Nudità," "hate contents ", "Bullismo e molestie", "Minacce", il manuale prevede che non si possano pubblicare foto di donne che allattano al seno, fare inviti sessuali espliciti, rappresentare giocattoli e feticci erotici in contesti sessuali, immagini ritoccate con photosphop in una luce negativa, o usare un linguaggio esplicito e violento. Nessuna novità, dirà qualcuno, ma dai documenti trapelati dall’azienda che si occupa di moderare e censurare questi contenuti, la oDesk, si apprende, per via di un’indignata ventunenne marocchina, pagata 1 dollaro ad ora per questo lavoro, che da adesso in poi i capezzoli sono e saranno considerati volgari, ma non le teste spappolate e i fludi corporei.

La vicenda si è subito colorata di giallo. Infatti, dopo la diffusione attraverso Gawker del manuale, la oDesk ha pubblicato una nuova versione del manuale, la 6.2, aggiungendovi la clausola rituale di "materiale privato e confidenziale". Ma ormai le frittata era fatta. Il manuale è pensato per essere aggiornato costantemente. Il protocollo di verifica degli abusi relativi alla categoria "Sesso e Nudità", prevede 12 situazioni tipo, che vanno dall’esposizione delle parti intime al nudo infantile. Così si apprende che mentre l’attività sessuale esplicita va vietata, non lo sono i preliminari sessuali, anche omosessuali; i capezzoli maschili vanno bene, quelli femminili no. E così via. Mentre nel caso del nudo infantile il protocollo prevede che il contenuto sia "escalated", cioè che vada richiesta un’accurata indagine al team di FB.

Questo intervento viene richiesto ai valutatori nel caso di sesso bestiale, necrofilia e pedofilia, nel caso di attività criminali già valutabili come tali, di torture e maltrattamenti animali. Quello che incuriosisce non è che venga richiesto un intervento – come giustamente accade – verso contenuti legati all’Olocausto e alla sua negazione, ma che avvenga per contenuti politici legati alla Turchia. Ai valutatori viene suggerito di intervenire subito se qualcuno inneggia agli indipendentisti kurdi del Pkk, se usa immagini di bandiere turche in fiamme (nella precedente versione del manuale era lecito farlo per quelle di altri paesi), se attacca il padre della patria Ataturk.

Abbastanza ovvia è l’approvazione di una richiesta di intervento rispetto alle automutilazioni, alle minacce a capi di stato, ufficiali e poliziotti, anche quando non sono credibili. Le rappresentazioni della marjuana sono accettate, a meno che non avvenga in un contesto di spaccio. Ma "la nudità artistica è ok".

Ovviamente tutte queste raccomandazioni si riferiscono a messaggi, video, testi, audio e non solo alle fotografie che possono essere rimosse anche solo per il testo sovraimpresso. E la cosa interessante è che mentre nellla precedente versione tutto quello che non era incluso nel vademecum poteva essere tollerato, adesso la sinossi del manuale recita che ogni abuso nei termini descritti richiede l’intervento censorio, tranne in casi specifici "definiti altrove o in altro modo".

Il punto è che le pagine informative sui contenuti e i comportamenti accettabili su FB sono molto vaghe, tanto che gli utenti non sanno esattamente cosa sia possibile fare oppure no, tranne vedersi l’account bloccato senza motivo. Ma FB lo sa. Se si viene bannati da FB per aver violato gli standard comunitari o le regole d’uso, in particolare relative alle immagini, può accadere di perdere le fanpage, il controllo di alcuni gruppi, migliaia di account raggiungibili via notifica email con un click e l’archivio della messaggistica. Oltre che naturalmente tutte le informazioni di status e il controllo delle foto pubblicate. Quando questo accade, non è sempre possibile ingaggiare il team dei risolutori di Facebook, e aspettare, qualche volta, che ci ripensino. Ma nel frattempo si può sempre migrare su un altro social network.

Non è la prima volta che Facebook finisce nell’occhio del ciclone per voler imporre una morale che non è condivisa interamente dai suoi 800 milioni di utenti, di estrazione sociale, geografica e culturale diverse, e non sarà l’ultima. Nell’aprile dell’anno scorso le polemiche erano state scatenate da gruppi gay-friendly per aver bannato un bacio gay mentre é da almeno due anni che "gli attivisti del latte" protestano contro il divieto di mostrare il seno nudo delle donne che allattano. Ma ci sono state anche le censure di carattere "politico" ad aver creato sorpresa in tutto il mondo, non solo in Italia dove diversi gruppi come Valigia Blu, Libertà e Partecipazione e Il Popolo del pomodoro, sono stati zittiti dal gigante americano e solo in un caso, quello di Valigia Blu, il social network ha fatto marcia indiestro.

Una conferma di questo tipo di policy viene da un utente italiano di FB, Marco Pusceddu: "Qualche giorno fa ho inserito all’interno di una pagina antirazzista un’immagine che mi serviva da veicolo per parlare di determinate questioni. A distanza di qualche giorno, esattamente il 28 gennario, Facebook rimuove tale immagine e mi blocca l’account per 24 ore", L’immagine rappresentava una donna di colore che allattava un bimbo bianco, probabilmente un albino. Pusceddu è indignato: "Il fatto di essere loro ospite come utente non significa che si debba accettare passivamente la loro posizione od andarsene via se non ci piacciono le loro regole. Ritengo che l’atteggiamento di Facebook sia un’umiliazione per tutte le donne e le mamme, per la società civile in sé stessa. Allattare al seno non è osceno. Una madre che allatta non è pornografia". Pusceddu sta organizzando la sua protesta: astenersi dal collegarsi in Facebook per 3 giorni, anche se "FB nella creazione dell’evento non ci ha permesso di utilizzare alcune parole…".

Facebook sulla vicenda ha espresso una posizione ufficiale. Eccola:
"Per  processare in modo rapido ed efficiente milioni di segnalazioni che riceviamo ogni giorno, abbiamo deciso di appoggiarci a società esterne per effettuare una classificazione iniziale di una piccola parte dei contenuti segnalati. Queste società sono soggette a rigorosi controlli di qualità e abbiamo implementato diversi livelli di tutela per proteggere i dati degli utenti che usano il nostro servizio. Inoltre nessun altra informazione viene condivisa con terzi oltre ai contenuti in questione e alla fonte della segnalazione. Abbiamo sempre gestito internamente le segnalazioni  più critiche e tutte le decisioni prese dalle terze parti sono soggette a verifiche approfondite. I nostri processi vengono migliorati costantemente e i fornitori sono monitorati su base continuativa. Questo documento fornisce una fotografia dei nostri standard applicati a uno dei nostri fornitori. Ulteriori informazioni si trovano qui".