Un vocabolario inquinato

Più di 1.200 dipendenti di Google hanno firmato una petizione in favore di Timnit Gebru, e altri 1.500 ricercatori e scienziati del settore le hanno espresso la propria solidarietà. Il suo licenziamento? Per aver scoperto come si alterano i bot nella rete.
scritto da MICHELE MEZZA
Condividi
PDF

“Ma ci ritroviamo con un ecosistema che forse ha incentivi che non sono i migliori per il progresso della scienza per il mondo”. È il commento di Emily M. Bender, professore di linguistica computazionale all’Università di Washington. Il docente ha collaborato con Timnit Gebru, fino a qualche giorno fa responsabile della sezione etica di Google, a un report sulla struttura e gli effetti dei grandi database semantici, in sostanza quei vocabolari digitali che permettono ai bot di parlare e di scrivere sostituendosi agli umani in svariate attività, fra cui anche il giornalismo.

Una ricerca molto delicata che tocca uno dei principali componenti del fatturato del principale motore di ricerca del mondo. Talmente delicata che è costata il posto alla Gebru.

ytali è una rivista indipendente. Vive del lavoro volontario e gratuito di giornalisti e collaboratori che quotidianamente s’impegnano per dare voce a un’informazione approfondita, plurale e libera da vincoli. Il sostegno dei lettori è il nostro unico strumento di autofinanziamento. Se anche tu vuoi contribuire con una donazione clicca QUI

Come sempre l’estromissione di un dirigente di primo livello, quale era la responsabile etica di tutto Google, dal Big Tech, sempre ossessionato dal segreto, è sempre avvolta dal mistero e dal tentativo di delegittimare il dipendente. 

Queste confraternite digitali, che reclamano trasparenza all’esterno ma che al loro interno si comportano con le ritualità da setta di templari, come ha descritto il libro di Dave Eggers Il Cerchio e come ha aggiornato proprio in questi giorni il nuovo reportage sul clima della Silicon Valley di Anna Wiener La valle oscura, non permettono alcuna circolazione di informazioni su quanto stanno preparando e soprattutto sulle relazioni interne fra i vari comparti. 

Timnit Gebru, una giovanissima scienziata della rete, meno di quarant’anni, di origine eritrea, esperta di bias del data mining, in sostanza delle forme di discriminazione indotte dall’uso dei dati nelle bolle di Internet, è giunta a Google già con l’aura del talento per i suoi studi sulle forme d’uso sociale discriminatorio insite nelle tecniche del riconoscimento facciale. 

Messa a capo del comitato etico, doveva integrare, e garantire, che le produzioni di intelligenza artificiale, applicate ormai ordinariamente al linguaggio automatico, non contenessero appunto contenuti o modalità che potesse colpire questa o quella classe socioculturale. 

Improvvisamente, la tempesta. Lo scorso 2 dicembre, dopo un fitto scambio di tweet, durato almeno due settimane, con Jeff Dean, il potentissimo capo dell’intelligenza artificiale della conglomerata di Mountain View, la stessa Gebru annuncia di essere stata licenziata. 

Una procedura assolutamente inconsueta a quei livelli, siamo nel cerchio più prossimo agli dei di Google, i due dioscuri che hanno fondato l’impero: Larry Page e Sergey Brin.

Stiamo parlando di trattamenti economici a sei zeri in dollari, con valigiate di stock options.

Timnit Gebru da MIT Technology Review

Di solito si trovano modalità più consensuali, per accompagnare all’uscita l’indesiderato. Con la Gebru si è tornati alle tecniche del padrone delle ferriere. La causa è stata svelata dalla MIT Technology Review, un altro gigante del settore, edito dal mitico centro universitario di Boston, che ha pubblicato il documento su cui la Gebru insieme ad altri ricercatori stava lavorando. Si tratta, come ha confermato proprio il professor Bender di Washigton, di una ricerca estremamente circostanziata sui robot del linguaggio, quelli che fanno parlare gli assistenti come Alexa o Siri, e cominciano a sostituire funzioni professionali come i giornalisti e gli stessi medici.

Per far parlare automaticamente questi software come se fossero umani bisogna processare quantità poderose di dati e elaborare algoritmi complessissimi. In questo ginepraio di intelligenza artificiale, aveva svelato la Gebru con il suo team di ricercatori, si annidano trappole pericolosissime per la convivenza sociale, come bias confermative, che incoraggiano radicalizzazioni estreme delle opinioni, o discriminazioni valoriali sia di natura etnica che sessuale. Sono sottilissimi meccanismi che agiscono alla base di queste infinite piramidi cognitive che elaborano e imparano linguaggi e ragionamenti. Se all’origine di un meccanismo automatico, che agisce per sviluppi esponenziali, quale è appunto un agente intelligente, si alterano le matrici dei valori di base, ad esempio il concetto di buono o di grande, viene stravolto a valle l’intero risultato operativo. La Gebru ha documentato e ricostruito il motore di questa manipolazione, intendendola in una prima fase solo come un rischio, e per tanto segnalandola alla comunità dei programmatori come cautela e richiamo per una corretta realizzazione dei dispositivi.

Ma evidentemente Google intendeva il concetto di rischio non come eventualità di un errore dei propri data base semantici, ma come minaccia al proprio fatturato. Infatti il responsabile del comparto di Intelligenza artificiale del gruppo, Dean, che dipende direttamente dal capo operativo assoluto che è l’indiano, esperto appunto di intelligenza artificiale, Sundar Pichai, non ha perso tempo e ha cominciato a bombardare la Gebru di email e messaggi per ingiungerle di ritirare prima il documento e poi almeno la sua firma. Un ordine che, se eseguito, avrebbe distrutto l’immagine e la reputazione di una scienziata che basa la sua identità sulla trasparenza scientifica e sull’etica gestionale. E infatti la Gebru ha resistito fino al licenziamento.

Più di 1.200 dipendenti di Google di ogni ordine e grado hanno firmato una petizione in favore della Gebru, e altri 1.500 ricercatori e scienziati del settore le hanno espresso la propria solidarietà. Il nodo non è certo di poco conto, soprattutto in un momento in cui Google, sia negli USA sia in Europa, è sotto tiro per la sua azione di distorsione del mercato e di manipolazione dei dati. Ma in ballo c’è qualcosa di più grande. Anche grazie alla pandemia, siamo alla vigilia di un nuovo salto acrobatico del sistema digitale, dove connettività e potenza di calcolo stanno impennandosi per portare forme di intelligenza non umana a sostituire in funzioni discrezionali l’attività umana. È evidente che se tutto questo si basa su un’artigianale e meccanica selezione di valori e contenuti che rispecchiano la volontà di un proprietario o anche solo di un programmatore cade tutta l’impalcatura che sostiene il processo di digitalizzazione della nostra vita, e conseguentemente le incalcolabili fortune economiche che si stanno accumulando.

Tanto più che, ad esempio, l’Unione europea sta elaborando un nuovo Digital Act che mira a mutare il modello industriale basato sull’intensità innovativa di singole aziende e a favorire la circolarità e la trasparenza di algoritmi e database. Lo stesso si sta proponendo nel cuore di professioni come il giornalismo o la sanità, dove sistemi di intelligenza artificiale si accostano e poi tendono a sostituire i singoli operatori artigiani. Il 64 per cento delle testate europee, ha documentato una ricerca dell’Ordine nazionale dei giornalisti, condotta con l’Università Federico II, che io stesso ho coordinato, sta investendo in sostituzione di redattori con bot. Il caso Gebru ci dice come sia oggi possibile e necessario intervenire direttamente nel controllo e riprogrammazione dei sistemi di calcolo, aprendo finalmente le scatole nere che confiscano dati e informazioni preziosissime perfino per la stessa strategia di contrasto al virus.

Timnit Gebru per Google, così come fece Christopher Wylie per Cambridge Analytica, e prima di loro Eduard Snowden per la trasparenza dei dati pubblici, ha aperto una strada che non potrà rimanere deserta se vogliamo davvero civilizzare il mondo tecnologico e arrivare a non avere più bisogno di eroi o di vittime sacrificali della libertà nella rete.

Un vocabolario inquinato ultima modifica: 2020-12-05T18:12:31+01:00 da MICHELE MEZZA

VAI AL PROSSIMO ARTICOLO:

POTREBBE INTERESSARTI ANCHE:

Lascia un commento