La fine del Trust and Safety Council di Twitter: quando i controlli scompaiono
Una riflessione su potere, moderazione e il prezzo che paghiamo quando le voci scomode vengono zittite
Mi sono accorto che ultimamente, quando penso a Twitter, o X come dovrei ormai chiamarlo, mi viene in mente quella sensazione che provi quando torni in un posto che amavi e non lo riconosci più. I muri sono gli stessi, ma l’atmosfera è completamente diversa. È quello che mi succede ogni volta che apro l’app, scorro un po’ e poi la chiudo con una vaga sensazione di disagio. Forse è il tono generale che è cambiato, o forse sono le cose che vedo emergere più facilmente, senza filtri. Non lo so. Ma so che c’è stato un momento preciso in cui qualcosa si è rotto, e quel momento risale a dicembre 2022, quando Elon Musk ha sciolto il Trust and Safety Council di Twitter.
Ho passato parecchio tempo a ripensare a quella storia, cercando di capire cosa fosse davvero quel consiglio e perché la sua eliminazione mi sembri così significativa. La risposta che mi sono dato non è semplice, e forse è proprio per questo che mi ci sono affezionato.
Il Trust and Safety Council era nato nel febbraio 2016, come risposta alle critiche che Twitter riceveva per la sua gestione dei contenuti dannosi. Circa cento organizzazioni indipendenti, esperti di diritti civili, accademici, attivisti, si erano messi insieme per dare consigli a Twitter su come affrontare questioni delicate. Hate speech, sfruttamento minorile, prevenzione del suicidio, salute mentale. Non avevano alcun potere decisionale, sia chiaro questo punto. Non decidevano quali account bannare o quali post rimuovere. Erano consulenti, persone che Twitter ascoltava quando doveva prendere decisioni complesse. Patricia Cartes, la dipendente di Twitter che aveva creato questo consiglio, lo aveva immaginato come un modo per portare una prospettiva globale, per evitare che la piattaforma rimanesse troppo ancorata a una visione americana. E per sei anni, con tutti i suoi limiti, aveva funzionato.
Quando Elon Musk ha completato l’acquisizione di Twitter per 44 miliardi di dollari, il 27 ottobre 2022, aveva fatto una promessa che sembrava ragionevole. Avrebbe formato un “content moderation council” con “widely diverse viewpoints”, e nessuna decisione importante sarebbe stata presa prima che questo consiglio si riunisse. In quel momento, mi ero detto che forse le preoccupazioni erano esagerate. Sembrava un approccio prudente, quasi rassicurante.
Ma quella promessa non si è mai realizzata. Non c’è mai stato un nuovo consiglio. E quello vecchio, quello che esisteva da sei anni, è stato progressivamente marginalizzato fino a scomparire del tutto.
A novembre 2022 Twitter ha licenziato circa la metà dei suoi dipendenti, parliamo di 3.700 persone. Il team Trust and Safety è stato ridotto del 15 per cento. Yoel Roth, che guidava questo team, aveva cercato inizialmente di rassicurare tutti, dicendo che le politiche di moderazione dei contenuti non sarebbero cambiate. Ma era una difesa fragile, costruita su fondamenta che stavano già cedendo. Poche settimane dopo, Roth si è dimesso.
La storia di Yoel Roth è quella che mi ha colpito di più in tutta questa vicenda, e credo che meriti di essere raccontata per intero. Era a Twitter dal 2014, aveva costruito il team di Site Integrity da zero portandolo a 220 persone. Aveva lavorato su cose importanti: la lotta contro la disinformazione durante le elezioni americane, il contrasto alle operazioni di information warfare. Era, in sostanza, una delle persone che sapeva davvero come funzionava tutto il sistema di moderazione della piattaforma.
Dopo le sue dimissioni, Musk ha iniziato ad attaccarlo pubblicamente. Ha preso un paragrafo dalla dissertazione di dottorato di Roth del 2016, uno studio accademico su Grindr e le dinamiche della comunità lgbtq, lo ha citato fuori contesto e ha insinuato che Roth fosse un sostenitore della pedofilia. Era una distorsione totale, una falsità costruita deliberatamente per alimentare la rabbia online.
Le conseguenze sono state immediate e terribili. Roth ha ricevuto migliaia di minacce. Ha dovuto lasciare la sua casa con suo marito. Ha venduto la casa e si è nascosto per mesi. Ha avuto bisogno di protezione armata. In un’intervista su MSNBC nel 2023, Roth ha detto chiaramente cosa pensava fosse successo:
I believe he was trying to ensure I would not speak up about him or the company in the future. And the way he tried to secure that was intimidating me by violence.
Ogni volta che rileggo quella frase mi fermo un momento. Non è solo un licenziamento, non è nemmeno solo una critica pubblica. È un tentativo deliberato di silenziare qualcuno attraverso la paura e l’intimidazione. E il fatto che venga dall’uomo più ricco del mondo, con accesso a milioni di follower, rende tutto ancora più inquietante.
A dicembre 2022, tre membri chiave del Trust and Safety Council si sono dimessi: Eirliani Abdul Rahman, Anne Collier e Lesley Podesta. Nella loro lettera di dimissioni hanno scritto qualcosa che, con il senno di poi, suona profetico:
Contrary to claims by Elon Musk, the safety and wellbeing of Twitter’s users are on the decline.
Anne Collier, che era stata membro fondatore del consiglio nel 2016, aveva osservato:
It is evident from research findings that, contrary to Elon Musk’s assertions, the safety and well-being of Twitter’s users are deteriorating.
Non erano parole in libertà, erano osservazioni basate su anni di esperienza diretta.
La risposta di Musk è stata brutale e disonesta. Ha accusato il consiglio, e in particolare quei tre membri che si erano dimessi, di non aver fatto nulla per anni contro lo sfruttamento minorile. Jack Dorsey, l’ex ceo di Twitter, ha risposto semplicemente: “this is false”. E aveva ragione. Il consiglio aveva sempre avuto un gruppo dedicato proprio allo sfruttamento minorile, che includeva organizzazioni come il National Center for Missing & Exploited Children.
Il 12 dicembre 2022, Twitter ha sciolto completamente il Trust and Safety Council. L’email di comunicazione è arrivata circa un’ora prima di un meeting che era stato programmato con i membri del consiglio. L’email era firmata semplicemente “Twitter”, nessun nome personale. La motivazione ufficiale era che il consiglio “is not the best structure” per ricevere consulenze esterne. Patricia Cartes, che aveva creato il consiglio nel 2016 e aveva lasciato Twitter nel 2018, ha commentato con una frase semplice ma devastante:
means there’s no more checks and balances.
Mi sono fermato a lungo su quella frase. I checks and balances, i controlli e i contrappesi, sono quello che impedisce al potere di concentrarsi troppo in un punto. Sono quello che ci protegge dagli abusi. E quando scompaiono, non succede nulla di visibile nell’immediato. Semplicemente si apre uno spazio dove prima c’era un limite.
Nel frattempo, Musk aveva lanciato i Twitter Files, una serie di rilasci di documenti interni affidati a giornalisti come Matt Taibbi e Bari Weiss. L’idea dichiarata era quella di mostrare trasparenza, di far vedere come funzionavano davvero le decisioni di moderazione dei contenuti. Ma c’era un problema enorme: i nomi dei dipendenti di Twitter, anche quelli di basso livello, non erano censurati. Uno staff member delle Filippine è stato doxxato e sottoposto a harassment grave. Altri sono diventati bersaglio di teorie cospirative. Decisioni prese da team di dozzine di persone secondo le policy aziendali sono state presentate come capricci arbitrari di singoli individui, ognuno dei quali veniva nominato e additato. Mike Masnick, giornalista tech, ha commentato dopo il primo rilascio che in realtà non c’era “absolutely nothing of interest” nei documenti, e i pochi dettagli presenti contenevano significative inesattezze fattuali. Anche Musk alla fine si è stancato dell’iniziativa. Ma il danno era fatto.
I numeri raccontano una storia che Musk ha sempre negato, ma che la ricerca ha documentato in modo abbastanza chiaro. Uno studio della Montclair State University ha rilevato che nelle prime 12 ore dopo l’acquisizione di Musk ci sono stati 4.778 tweet contenenti hate speech, mentre prima dell’acquisizione il massimo era 84 tweet all’ora. Non è stato solo un picco temporaneo. Uno studio dell’Università della California Berkeley, pubblicato su PLOS ONE nel 2025, ha analizzato l’hate speech su X dal gennaio 2022 al giugno 2023, rilevando un aumento costante del 50 per cento per almeno otto mesi dopo l’acquisizione. Gli slur transfobici sono passati da circa 115 post a settimana a 418. L’engagement con contenuti di odio è aumentato del 70 per cento. E no, non c’è stata alcuna riduzione degli account bot, contrariamente alle promesse di Musk.
Mi chiedo spesso cosa significhi davvero quel 50 per cento in più. Non sono solo numeri su un grafico. Sono persone reali che vedono insulti razzisti, omofobici, transfobici quando aprono l’app. Sono comunità marginalizzate che si sentono meno sicure in uno spazio che prima frequentavano. È un clima che cambia, lentamente ma inesorabilmente, e che influenza il modo in cui le persone si esprimono, cosa dicono e cosa tacciono.
Gli advertiser se ne sono accorti subito. A novembre 2022, grandi marchi come General Motors, General Mills, Macy’s e Volkswagen hanno sospeso la pubblicità su Twitter. Musk stesso ha parlato di “massive drop in revenue”. Dati successivi hanno mostrato che Twitter ha perso metà dei suoi ricavi pubblicitari, con oltre 500 advertiser che hanno smesso di spendere sulla piattaforma. Non era solo una questione economica. Era un voto di sfiducia. Gli inserzionisti non volevano che i loro brand apparissero accanto a contenuti d’odio e disinformazione. E quando Musk ha cambiato le policy, reintegrando Donald Trump dopo un sondaggio su Twitter nel novembre 2022, rimuovendo le protezioni per gli utenti transgender dalle linee guida ad aprile 2023, gli advertiser hanno capito che la direzione era chiara. Alcuni sono tornati. Apple, Comcast, Disney, IBM hanno ripreso a fare pubblicità su X nel 2024 e 2025, anche se con budget molto più ridotti rispetto al passato. Ma la fiducia non è tornata. E forse non tornerà mai del tutto.
C’è un paradosso interessante nelle statistiche sulla sicurezza dei minori. Musk aveva accusato il Trust and Safety Council di non aver fatto abbastanza contro lo sfruttamento minorile. Ma i numeri raccontano una storia più complessa. Nel secondo semestre 2021, Twitter aveva rimosso circa 600.000 account per sfruttamento minorile. Nel 2022, sotto Musk, sono stati rimossi 2,3 milioni di account. Nel 2023 il numero è schizzato a 12,4 milioni, con 850.000 report inviati al National Center for Missing & Exploited Children, otto volte più del 2022.
Sono numeri impressionanti, e sembrano suggerire un miglioramento. Ma ho passato un po’ di tempo a pensarci, e mi sono reso conto che potrebbero significare anche il contrario. Più account da rimuovere potrebbe voler dire più materiale di abuso presente sulla piattaforma. E con un team di Trust and Safety ridotto del 15 per cento e un approccio che privilegia l’automazione rispetto alla moderazione umana, è difficile dire se questi numeri rappresentino un successo o una crisi gestita male. Mi manca la competenza per dare una risposta definitiva, ma il dubbio mi rimane.
Del content moderation council promesso da Musk non c’è mai stata traccia. Non è mai stato creato, non c’è mai stata una riunione, non c’è mai stato un annuncio ufficiale che dicesse “abbiamo cambiato idea”. È semplicemente svanito, come se non fosse mai stato promesso. Al suo posto, Musk ha introdotto Community Notes, precedentemente chiamato Birdwatch, un sistema di fact-checking crowdsourced dove gli utenti possono aggiungere contesto ai post. L’idea in teoria è interessante: democratizzare la moderazione, dare voce alla comunità.
Ma la ricerca mostra che è problematico. Uno studio ha rilevato che nel 91 per cento dei post dove almeno una nota è stata proposta, nessuna ha raggiunto lo status di “helpful”. Il ritardo medio per ottenere una nota helpful è di 26 ore, ben oltre il momento di massima visibilità di un post. E il 74 per cento delle note accurate relative alle elezioni presidenziali americane del 2024 non sono mai state mostrate agli utenti. Community Notes può funzionare, ma solo se il contesto arriva in tempo. E nella maggior parte dei casi, non arriva.
Ripensando a tutto questo, mi rendo conto che non abbiamo perso solo un organo consultivo. Abbiamo perso un modello di governance che, per quanto imperfetto, cercava di bilanciare diversi interessi: la libertà di espressione, la sicurezza degli utenti, i diritti delle comunità marginalizzate.
Il Trust and Safety Council non era perfetto. Alcuni membri si erano lamentati già prima dell’acquisizione di Musk che Twitter li ignorava. Ma era un tentativo di fare qualcosa che le piattaforme social faticano ancora a fare: ascoltare voci diverse, incorporare expertise esterna, ammettere che le decisioni di moderazione sono complesse e richiedono sfumature.
Al suo posto abbiamo un modello diverso: decisioni prese “by edict”, come ha scritto Yoel Roth nel suo op-ed sul New York Times. Un solo uomo, con le sue convinzioni e i suoi pregiudizi, che decide cosa è accettabile e cosa no. E quando qualcuno critica o si dimette, viene attaccato pubblicamente, minacciato, costretto a nascondersi.
Una cosa che mi ha colpito particolarmente è stata la lettera congiunta di 16 membri del Trust and Safety Council dopo lo scioglimento. Hanno condannato “the dramatic changes to, and arbitrary enforcement of, content moderation policies and practices at Twitter”. Hanno sottolineato che il consiglio non prendeva decisioni su post o account specifici, non aveva voce in capitolo sugli investimenti o sull’approccio ai contenuti illegali. E poi hanno detto qualcosa che merita di essere ricordato:
We condemn the irresponsible actions of Twitter leadership in jeopardizing the safety of Council members, including those who resigned before Twitter disbanded the Council, by amplifying disinformation about us and the Council’s purely advisory role, sparking huge levels of abuse targeted at the resigning members.
Erano persone che avevano dedicato anni, gratis, come volontari, per cercare di rendere Twitter un posto più sicuro. E sono stati ripagati con disinformazione, accuse false e minacce.
Quello che è successo al Trust and Safety Council non riguarda solo Twitter. È un precedente. Mostra cosa può succedere quando una piattaforma che ha un impatto enorme sulla vita pubblica viene controllata da una sola persona che non è disposta ad accettare limiti o consigli esterni.
Le conseguenze le stiamo vedendo ora. X è diventato un posto diverso. L’hate speech è aumentato in modo misurabile. Gli advertiser sono fuggiti e solo alcuni stanno tornando, con molta cautela. Gli utenti stanno migrando verso altre piattaforme, Bluesky ha visto una crescita enorme proprio mentre alcune aziende tornavano timidamente su X. E soprattutto, abbiamo perso quella piccola illusione che le piattaforme social potessero essere governate attraverso un dialogo con la società civile, con esperti indipendenti, con chi si batte per i diritti umani.
Mi viene spesso in mente la frase di Patricia Cartes, “there’s no more checks and balances”. Sembra esagerata, ma non lo è. Quando Musk ha sciolto il Trust and Safety Council, non ha solo eliminato un gruppo di consulenti. Ha mandato un messaggio: non ho bisogno di consigli esterni, non ho bisogno di esperti, non ho bisogno di bilanciare interessi diversi. Io decido.
E questo, alla fine, è il punto che mi preoccupa di più. Non è solo Twitter. È un modello che si sta replicando altrove. Altre piattaforme guardano a quello che è successo e pensano di poter fare la stessa cosa, liberarsi delle voci scomode, di quei consulenti che rallentano le decisioni.
Ma quelle voci scomode servivano a qualcosa. Servivano a ricordarci che dietro ogni decisione di moderazione ci sono persone reali, comunità reali, vite reali. E che forse, solo forse, le decisioni più difficili sono quelle che richiedono più tempo, più ascolto, più umiltà.
Dicembre 2022 sembra lontano, ma le sue conseguenze sono ancora qui, ogni volta che apriamo X e vediamo cosa è diventato. La domanda che mi faccio non è tanto “come ci siamo arrivati”, perché quella risposta ormai la conosco. È piuttosto “dove stiamo andando”. Perché se non troviamo un modo per costruire quei controlli e contrappesi in ogni servizio di pubblica utilità, nelle piattaforme social come altrove, temo che la risposta non ci piacerà.

