Censurare Trump? Non spetta a Twitter e a FB

MICHELE MEZZA
Condividi
PDF

Sulle scale del Campidoglio, insieme all’uscita di scena di Trump, indotta dalle sparate del Re Lear disperato che tuonava minacce ormai vane dalla Casa Bianca, si è giocata una partita destinata ad avere un riflesso a livello internazionale. Con singolare simultaneità prima Twitter e poi Facebook, dopo mesi di silenzio e passività, hanno deciso di bannare proprio il presidente americano, cancellandolo dalle rispettive piattaforme. Per circa diciotto ore Trump s’è trovato isolato dal suo popolo, nell’impossibilità di comunicare e di guidare quell’armata di avventurieri radicalizzati che era calata su Washington. Ovviamente, nel momento della massima drammaticità, riuscire a colpire il presidente pazzo barricato nello studio ovale ha raccolto il plauso generale. Ma ora si comincia a discutere.

Tocca proprio ai titolari della piattaforme sindacare i contenuti che trasportano? I postini devono leggere le lettere che consegnano? Un rappresentante di legittime istituzioni, come comunque rimaneva Trump, può essere censurato da un imprenditore privato, come precisa Massimo Cacciari in un suo violento giudizio critico, in cui definisce le decisioni di Twitter e Facebook “una cosa semplicemente pazzesca”.

Torna qui un tema ormai ricorrente. Da anni, esattamente dall’elezione di Trump, quattro anni fa, con lo scandalo di Cambridge Analytica, si è posto il nodo della responsabilità delle piattaforme nel veicolare contenuti estremi che affiorano dal deep web. Dalle forme più feroci di discriminazioni razziali, culturali o politiche fino alle abiezioni di varia natura o all’organizzazione esplicita di campagne di denigrazione di menzogne patentate, l’inquinamento della rete è diventato materia di discussione che si è semplificativamente risolto con la richiesta di tutela ai proprietari delle piattaforme. Anche i nuovi provvedimenti che sono in fase di deliberazione presso l’Unione Europea considerano responsabili diretti dei contenuti che violano l’etica e le norme elementari delle leggi sui diritti delle persone i grandi brand della rete, come appunto Google, Facebook, Twitter.

Una posizione assolutamente pericolosa e del tutto ingestibile, peraltro. A parte casi del tutto sporadici ed esemplari, com’è stato lo scandalo di Trump e del suo delirio anti-istituzionale, le violazioni in termini di fake news o di campagne di antisemitismo o razzismo più generico si svolgono in maniera diffusa, virale e pervasiva. Con il supporto di agenti intelligenti che moltiplicano e indirizzano i messaggi a miliardi di persone. Solo un fuoco di sbarramento altrettanto automatico, basato su sistemi semantici intelligenti, in grado di leggere e intervenire automaticamente, potrebbe, almeno parzialmente tamponare e limitare le infiltrazione inquinanti.

Ora il punto è capire se si può affidare a questi sistemi automatici, tarati in base a paradigmi e valori medi prescelti dai programmatori delle piattaforme, la lotta alle fake news o alle campagne d’odio. Possiamo affidare la trasparenza del dibattito politico, culturale, sociale alla discrezionalità di questi bot, senza poter poi controllarne gli effetti? E controllarli come? E poi davvero possiamo tollerare che algoritmi elaborati da ignoti programmatori sulle specifiche dei proprietari delle piattaforme possano definire il senso comune e intervenire magari per rintuzzare posizioni di rappresentanti legittimi di istituzioni democratiche o di oppositori di stati autocratici? Chi pone un limite all’incontrollabile discrezionalità del software?

Affiora qui un tema che sta ora dilaniando Google, il famoso caso Gebru, dal nome dell’ex responsabile dell’etica dei sistemi automatici del motore di ricerca, licenziata perché ha criticato la correttezza e trasparenza dei dispositivi semantici di Google. Si tratta infatti di capire, con l’espansione della potenza di calcolo, che sempre di più affiancherà fino a sostituire attività relazionali dell’uomo, come si potranno limitare e controllare questi poteri che orienteranno ogni nostro comportamento.

Se le grandi piattaforme non possono intervenire a mettere sotto tutela gli stati e la democrazia, è anche vero che gli stessi stati non debbono acquisire in maniera esclusiva il potere di condizionamento sociale, sottraendolo ai soggetti privati. Allora che accade? I nuovi orientamenti che emergono anche dalla stessa Unione Europea o dal dibattito accesosi nella Silicon Valley sul caso Gebru, vanno nella direzione di promuovere azioni sociali negoziali. Sono direttamente i cittadini, le comunità, le città, o le categorie professionali, come i medici e i giornalisti, a dover intervenire, per chiedere la sospensione di attività minacciose e inquinanti in rete.

Gli stati devono assicurare un quadro legislativo che costringa i monopolisti della rete ad accettare l’intervento sociale, mettendo dati e strumenti a disposizione di enti intermedi come appunto città o università. In questo caso anche la lotta alle fake news potrebbe rientrare in un’ecologia professionale della rete, dove gruppi sociali, come associazioni culturali o professionali intervengono dove ritengono violata sistematicamente la verità o il diritto degli individui. Non tocca dunque ai postini arrogarsi il diritto di decidere se e quando consegnare la posta ma sono gli utenti che possono chiedere che certi pacchi non vadano recapitati.

Censurare Trump? Non spetta a Twitter e a FB ultima modifica: 2021-01-08T20:15:30+01:00 da MICHELE MEZZA
Iscriviti alla newsletter di ytali.
Sostienici
DONA IL TUO 5 PER MILLE A YTALI
Aggiungi la tua firma e il codice fiscale 94097630274 nel riquadro SOSTEGNO DEGLI ENTI DEL TERZO SETTORE della tua dichiarazione dei redditi.
Grazie!

VAI AL PROSSIMO ARTICOLO:

POTREBBE INTERESSARTI ANCHE:

Lascia un commento