Twitter ha introdotto degli avvisi che invitano le persone a rivedere i contenuti potenzialmente offensivi nei loro tweet
Dopo una lunga fase di sperimentazione, Twitter ha introdotto una nuova funzione che invita le persone a rivedere il contenuto di un tweet, quando il sistema giudica che potrebbe essere offensivo. Il sistema si basa su un algoritmo che riconosce quando nel tweet sono usati «insulti, turpiloquio o messaggi d’odio» e fa apparire un avviso prima della pubblicazione che invita a rileggere ed eventualmete modificare quanto scritto. L’avviso non obbliga a cambiare o a cancellare un contenuto: l’utente può comunque decidere di pubblicare il suo tweet senza modifiche. Per il momento la funzione sarà attiva soltanto sugli account in inglese nei sistemi operativi iOS e Android.
Say something in the moment you might regret? 😬 We've relaunched this experiment on iOS that asks you to review a reply that's potentially harmful or offensive.
Think you've received a prompt by mistake? Share your feedback with us so we can improve. pic.twitter.com/t68az8vlYN
— Twitter Support (@TwitterSupport) February 22, 2021
Il social network aveva iniziato la sperimentazione di questa funzione circa un anno fa. Ha raccolto feedback da parte degli utenti su eventuali malfunzionamenti, cercando di migliorare la capacità del sistema di capire quando un contenuto sia realmente offensivo, non solo in base alle parole che contiene ma anche in base al contesto in cui viene inserito: inizialmente, per esempio, il sistema faceva molta fatica a distinguere gli insulti dal sarcasmo, e ora secondo Twitter le cose sarebbero migliorate.
I risultati raccolti dalla sperimentazione, secondo Twitter, sono stati positivi: nel 34 per cento dei casi, le persone che avevano ricevuto un avviso hanno cambiato il contenuto di un tweet, e chi aveva ricevuto almeno un avviso poi ha diminuito dell’11 per cento i contenuti offensivi.