Intelligenza artificiale. Per l’UE negoziare l’algoritmo non è poesia

La strategia “etica” di Bruxelles per rilanciare l’eccezionalità della rete.
scritto da MICHELE MEZZA
Condividi
PDF

Già il 31 dicembre, due settimane prima dell’allarme generato dai decessi, una società canadese che lavora su una piattaforma di intelligenza artificiale, specializzata in analisi epidemiologiche, aveva previsto il coronavirus di Wuhan. Due settimane che avrebbero limitato di molto l’infezione, e ridotto sia il panico che gli ingentissimi costi economici e sociali che questa forma di epidemia sta procurando al pianeta.

Blu Dot, così si chiama il dispositivo di calcolo canadese, lavora processando massa poderose di dati che vengono incrociati in base alla capacità dei ricercatori di individuare il focus che si vuole accertare. Nel caso delle forme virali in Cina a dare l’allarme erano stati i post in rete di quella regione incrociati con le prenotazioni aeree, debitamente misurate e analizzate dall’algoritmo.

Con la sua consueta ed essenziale pragmaticità, il leader russo replicando indirettamente alle accuse di condizionare le elezioni americane tramite sistemi di calcolo di microtargeting, lo aveva spiegato chiaramente:

chi controlla l’intelligenza artificiale controlla il mondo.

In soli sette anni la Cina ha recuperato il gap che l’aveva distanziata dagli Stati Uniti, investendo massicciamente nella ricerca e nelle commesse pubbliche alle società del settore.

L’Europa, dopo lo scrollone inglese, sembra intenzionata a non fare più la figura del vaso di coccio fra giganti d’acciaio. Negli ultimi due anni l’Unione europea ha speso in ricerca finalizzata solo 1,5 miliardi di euro, mentre gli USA ben 12,1 miliardi , e la Cina più di sei.

Uno scarto che ci documenta la subalternità del vecchio continente in tutti i gangli vitali dei nuovi processi digitali: intelligenza, big data, profilazione, 5g. Ora la risposta viene direttamente dal vertice della commissione europea. Proprio la presidente Ursula von der Leyen ha spinto per accelerare la proposta operativa europea: duecento miliardi in dieci anni per creare un sistema europeo di intelligenza artificiale, dove aziende, amministrazioni pubbliche, associazioni, università e cittadini possano diventare competitivi e produttori. Un sistema che non deve né inseguire, né replicare i modelli attualmente vincenti, come quello americano o cinese, ma deve cogliere l’ennesimo passaggio di genere che il sistema digitale si trova ad affrontare come l’Internet delle cose, per saltare uno stadio e posizionarsi in un ruolo di avanguardia.

Due sono i nodi su cui sembra concentrarsi l’Europa: i big data, che non devono più essere mediati dai server e dai data base della Silicon Valley e gli algoritmi, che non possono essere più repliche delle poche aziende monopoliste. Sui dati l’obiettivo è quello di creare un vero Open Science Cloud European, un’architettura condivisa e unitaria che permetta a tutti gli operatori professionali di usufruire di spazi sicuri ed efficienti per stivare, cercare, e scambiare dati. Un vero motore che acceleri la condivisione dei contenuti intesa come unica vera garanzia per la loro qualità e soprattutto attendibilità.

L’Europa rispetto alle strategie proprietarie americane, e statalistiche cinesi, appare orientata a una scelta aperta, dove proprio la natura sociale del sistema possa assicurare affidabilità ed efficienza. L’apparato sarà scalabile, con capacità di ritagliare spazi e ambienti specifici e specializzati, un gigantesco condominio mobile del sapere continentale. Un sistema che renderà plausibile e sostenibile anche strategie analoghe da parte di pubbliche amministrazioni nazionali e soprattutto territori e città. 

Da questo punto di vista cambia completamente il concetto di smart cities che non potrebbe cessare di diventare un supermarket di effetti speciali smerciati a inconsapevoli e impotenti amministratori locali, dove decide l’offerta, il venditore prende tutto, e invece cominciare a essere luogo di un vero piano regolatore delle connettività e delle intelligenze, in cui la classe dirigente e le strutture intermedie di una comunità si selezionano e si legittimano nella capacità di assicurare autonomia e sovranità ai propri amministrati. 

Il Piano Pisano, ad esempio, che il ministro dell’Innovazione ha presentato solo qualche settimana fa, dovrebbe, di conseguenza, essere completamente riscritto, alla luce di un input europeo che va nella direzione opposta a quella a cui guarda il ministro, basata su compiacenti collaborazioni con gli OTT.

Ancora più radicale appare la strategia sul cuore del sistema che sono gli algoritmi: la loro struttura cognitiva, il loro linguaggio, il senso semantico che inducono. In questo contesto l’etica diventerebbe non più una raccomandazione o un’ambizione valoriale, ma un elemento costitutivo del sistema di calcolo, una funzione che riclassifica tutti gli automatismi rendendoli trasparenti, condivisibili e negoziabili.

Un’apertura culturale che, nel campo della formattazione neurale, diventa una scuola di pensiero matematica: il numero, come spiegavano Turing e prima ancora Godel, è un’entità relativa, legata nella sua combinazione alla discrezionalità ambientale, una discrezionalità che in una temperie culturale segnata dal liberismo più incontrollabile ha generato modelli matematici che come descrive Paolo Zellini, nel suo rigoroso saggio La dittatura del Calcolo (Adelphi editore, Milano 2018) non fanno che estendere le funzioni rituali di controllo e di ripartizione dei numeri in modi che possono diventare inaccessibili, autoritari e categorici.

Questo non è un destino, è politica. L’Europa torna così alle origini, rintracciando proprio nella sua natura di convergenza fra umanesimo e tecnologia la vera essenza del progresso scientifico.

Quando nelle bozze preparatorie della disposizione europea si legge che

l’intelligenza artificiale dovrà rispettare la privacy e la confidenzialità delle informazioni carpite all’umano

ci dice che non basta proporre protocolli o informare sull’uso dei cookies, che bisogna rendere esplicito e controllabile l’inibizione a strumentalizzare segnali e informazioni depositate e anche a non produrre reazioni ed emozioni mirate a estrarre dati. Come ci dice Shoshana Zuboff nel suo ormai inevitabile saggio sul Capitalismo della Sorveglianza (Luiss Editore, Roma, 2019)

la privacy dovrebbe proteggere i cittadini da intrusioni nei propri pensieri, nel proprio comportamento, nella propria identità e personalità.

Cambridge Analytica violava la privacy non per la raccolta di dati su cittadini inconsapevoli, ma per il condizionamento dei comportamenti e delle reazioni emotive che induceva. 

Google e Facebook distribuendo notizie senza cronologia, solo per spingere ognuno di noi a reagire ad esse in base a specifici contesti del momento, violano continuamente le più elementari norme di privacy perché distorcono i nostri codici personali.

Su tutto questo l’Europa dice di voler esserci, e spiega come possa essere civilizzato il mostro: rendendo appunto condiviso e contrattabile. Infatti il vero valore aggiunto di tutta l’operazione sta proprio nella visione di un sistema digitale come un flusso continuo e inesorabile di aggiustamenti e integrazioni, che produce valore non tanto nell’atto della prototipazione del primo codice sorgente di un algoritmo, ma nella reazione a catena che avvia il learning machine, esponendo permanentemente lo stesso algoritmo a un profluvio di dati che lo alimenta, lo guida o lo addestra, a seconda del livello di consapevolezza dei suoi fruitori. Sono gli utenti, in realtà, i veri integratori, autori finali, di un algoritmo, e come tali, spiegano i promotori del progetto europeo, devono poter intervenire in ogni fase di adattamento del dispositivo di calcolo.

L’algoritmo dovrà pertanto essere sempre accessibile, disponibile nei suoi elementi costitutivi, tracciabile nelle sue evoluzioni e integrazioni e negoziabile, qualora l’afflusso di dati lo spinga in una direzione non concordata o non più utile. In sostanza, nel digitale, la trasparenza e la condivisione sociale sono un requisito essenziale per l’affidabilità e l’efficienza del sistema. Questa era l’eccezionalità della rete al suo sorgere, e questo era il buco nero che si era creato con il sequestro dell’open source da parte del partito dei proprietari.

Un’affermazione rivoluzionaria, che muta radicalmente sia il modello di business del mercato digitale, che gli assetti proprietari e gestionali dei dispositivi automatici.

Immaginiamo un’amministrazione pubblica, come l’anagrafe italiana, o una città, come quelle che sono al centro dell’implementazione del 5g. Con questa nuova logica partecipativa non si procederà più chiavi in mano, con un partner tecnologico che assicura l’intera gamma del servizio, importando dati e aggiornamenti del software nel suo server, ma si dovrà incrociare la piattaforma di servizio con le piattaforme sociali di monitoraggio e di accesso della comunità, per controllare e negoziare il sistema elaborato.

Le città potranno così realmente sviluppare piani regolatori che determinano le priorità e le gerarchie nell’offerta della connessione 5g, di per sé variabile e personalizzabile. Così come le categorie professionali, pensate ai giornalisti o ai medici, potranno ritrovare un ruolo del proprio sapere artigiano nelle fasi di upgrading dei sistemi digitali che governano ormai le loro attività.

Si profila un ennesimo salto civile. Quel sistema che sembrava una miniera di zombi, quale era il mercato digitale centralizzato dai proprietari privati o statali degli algoritmi, si potrebbe rivelare l’ennesimo imprevedibile grafo sociale che decentra e apre quello che si voleva chiudere e accentrare. Ora, ed è questo forse il vero miracolo, tocca alla politica, alla società, alla capacità di chi oggi può realmente declinare la propria garanzia di libertà con la legittima ambizione di efficienza.

Intelligenza artificiale. Per l’UE negoziare l’algoritmo non è poesia ultima modifica: 2020-02-01T11:17:14+01:00 da MICHELE MEZZA

POTREBBE INTERESSARTI ANCHE:

Lascia un commento