Gli algoritmi “buoni” contro il capitalismo di sorveglianza

Le trasformazioni digitali ci obbligano a ripensare l’intero contatto sociale, pena lo smantellamento della democrazia e l’ascesa di un controllo prescrittivo generalizzato, che mira a costruire un’opinione pubblica addomesticabile. Per non farci “automatizzare”, il processo tecnologico deve tornare a essere un linguaggio di connettività sociale.
scritto da MICHELE MEZZA
Condividi
PDF

La vigorosa discesa in campo della chiesa cattolica sul fronte della società digitale rende ancora più ineludibile per ogni sistema sociale, politico, istituzionale o economico di definirsi rispetto a questi temi. Soprattutto per la forte torsione che la riflessione vaticana ha impresso al dibattito, rendendo quella che era nella Laudato Si di papa Francesco di cinque anni fa solo una petizione di principio, una vera e propria scelta discriminante: il calcolo è un bene comune, come l’acqua.

Proprio nelle stesse ore, l’Unione europea ha varato un libro bianco sull’Intelligenza artificiale che prende di petto l’intero campo dei sistemi automatici e dell’uso di big data, affermando una strategia propria, tipicamente europea, competitiva e irriducibile ai modelli americano e asiatico, basata sulla socializzazione delle procedure computazionali intesa come fattore di efficienza oltre che di etica.

Anche in Italia qualcosa si muove, come dimostra l’iniziativa promossa dalla Cgil a metà marzo a Milano, virus permettendo, sul tema della negoziazione dei sistemi intelligenti e connessi nelle città, con un vero e proprio piano regolatore dell’innovazione.

Siamo evidentemente a uno spartiacque, in cui la pressione della potenza di calcolo su tutte le attività umane non è più derubricabile nell’ambito delle innovazioni scientifiche, ma diventa una vera e propria forma di antropologia, che orienta e determina la stessa evoluzione della specie, ormai più di quanto sia stato il lavoro nel secolo scorso. Non può essere un brevetto, o un banale segreto industriale a poter decidere in questo campo planetario.

La vera novità di questo tempo sta in quello che Shoshana Zuboff nel suo ormai inevitabile testo Il Capitalismo della Sorveglianza definisce

l’esproprio dell’esperienza umana da parte dei monopolisti del sapere.

In questa definizione cogliamo innanzitutto la lucida visione di uno scontro che non è uomo-macchina, ma come sempre, fra pochi uomini calcolanti e infiniti uomini calcolati, e, secondariamente, che questo conflitto si consuma sulla base della capacità dei primi di indurre, raccogliere, espropriare e finalizzare a nuovo dominio ogni nostra azione, soprattutto il modo con cui pensiamo a ogni nostro singolo atto.

Un controllo prescrittivo senza alcun precedente nella storia della specie.

In questo contesto proprietario e speculativo diventa più chiara la definizione di questa civiltà delle macchine computazionali che dava nel suo libro Psiche e Tecnè (Feltrinelli) Umberto Galimberti, per cui

la tecnica cessa di essere un mezzo nelle mani dell’uomo per divenire un apparato che include l’uomo come suo funzionario.

Si tratta, a questo punto, di ripensare l’intero contratto sociale, la stessa natura e ragione dello stato, e i codici degli enti intermedi, in una realtà che vede ogni funzione di governance, ogni relazione sociale, ogni dialettica istituzionale, condizionata e guidata dalla pianificazione dei dati e dalla loro elaborazione da parte di specifici sistemi di calcolo attraverso cui tutta l’attività di analisi e deliberazione di qualsiasi soggetto, pubblico o privato, debba passare.

Non a caso proprio mentre chiesa cattolica e Unione europea cercano di dotarsi di una bussola dove l’autonomo approccio possa giustificare le rispettive missioni, riconoscendo inevitabilmente, sia a livello teologico che amministrativo, che questa tecnica predittiva disintermedia ogni essere umano dai poteri preposti, e lo re-intermedia rispetto a un unico e inevitabile dominio automatico, gli stati nazionali, per altro oggi sotto l’infuriare di un accidente come il coronavirus che enfatizza questa capacità, sono alle prese con l’efficacia della propria governance amministrativa, cercando proprio in una nuova delega a centri di calcolo la via di uscita più immediata.

Il vento da questo punto di vista sembra aver cambiato direzione e senso. Rispetto alle banalizzazioni e subalternità degli anni scorsi, in cui il fior fiore delle intelligenze dinanzi a questi temi sostenevano che il gigantismo dei soggetti in campo, i famigerati over the top, non era imbrigliabile minimamente e nel caso le uniche testimonianze di resistenza dovevano esprimersi come sabotaggio o fuga dalla rete, o invece, sul lato opposto, chi trovava più conveniente e funzionale per il proprio destino, affidarsi completamente alle intraprendenze organizzate di queste corporation della coscienza, quali sono Google o Amazon o ancora Facebook, proponeva di adottare modelli di statualità appaltata come ad esempio in Estonia, oggi all’ordine del giorno è la salvaguardia della democrazia e la valorizzazione delle comunità sociali .

Abbiamo perso molto tempo.

Da almeno vent’anni, diciamo dal Duemila, quando Google lanciò il suo modello di targeted advertising, che individualizzò ogni messaggio promozionale, e dunque iniziò la profilazione di massa del pianeta senza incontrare la minima resistenza.

In quel passaggio il potere dell’algoritmo divenne dominio sociale e nacque questa marca di capitalismo della sorveglianza, appunto. E strumenti non ci mancavano per intercettare questa nuova volontà egemonica, e questa ambizione di eliminare ogni attrito sociale dai processi decisionali, che ne è la vera matrice. Già a metà degli anni Sessanta, Marshall Mc Luhan ci consegnò, fra i suoi molti aforismi, un’intuizione che doveva farci intendere con largo anticipo cosa poteva accadere e come dovevamo interpretarlo.

Nel suo saggio Gli strumenti del comunicare (1964) ci annunciava che

il messaggio di un medium o di una tecnologia è nel mutamento di proporzioni, di ritmo e di schemi che introduce nei rapporti sociali.

Bastava intendere correttamente questa definizione per dotarci di una cassetta degli attrezzi in grado di fronteggiare i fenomeni di trasformazione delle procedure di produzione e di elaborazione e sviluppo del sapere. Proporzioni, ritmo, schemi: queste tre categorie ci permettono di dare al mondo digitale il carattere di rivoluzione passiva, di cui parlava Gramsci.

Una vera trasformazione che mutava, radicalmente, senza alcun continuismo, la mappa dei poteri sociali, interpretando alla lettera Schumpeter, rovesciando tutti gli istituti giuridici e politici che erano stati indotti dal sistema precedente.

Già solo se avessimo guardato al ritmo, inteso non tanto come velocità delle innovazioni, ma quanto alla successione e concatenazione delle informazioni rispetto alle decisioni. È infatti questo circuito sincopato che sta smantellando la democrazia.

Paul Viriliò, un profeta di questo assalto alla democrazia già nel 1994, nel testo la Bomba Informatica, ci spiegava che

dietro la propaganda libertaria per una democrazia diretta, in grado di rinnovare la democrazia rappresentativa dei partiti politici, s’installa quindi l’ideologia di una democrazia automatica in cui l’assenza di deliberazione sarebbe compensata da un automatismo sociale simile a quello del sondaggio d’opinione, o alla misurazione dell’audience televisivo.

Siamo ancora lontani dagli spettri di Cambridge Analytica, ma appaiono chiaramente i fantasmi di istituzioni incalzate e accerchiate da ansie di partecipazione che il real time trasforma in spinta populista.

Una più pragmatica e dettagliata giustificazione di questo stravolgimento telepatico della democrazia viene da Francis Fukuyama che nel testo successivo al contestato e forse ancora poco compreso saggio sulla Fine della storia, che s’intitolava La Grande Distruzione, ci riconosceva che

l’economia accelerata porta sia la parte sazia del mondo, che cerca ordine e protezione dei propri primati, sia quella affamata, che vuole scorciatoie per accedere alle risorse planetarie a non affidarsi più al gioco politico rivolgendosi a nuovi equilibri che definisce di natura biologica più che politica.

Siamo dunque da molto tempo in questo gorgo, e abbiamo già stratificato una storia della nostra inadeguatezza a far valere l’origine libertaria di queste tecniche computazionali rispetto agli istinti predatori e proprietari di chi, come scrive nel suo libro Tutto è Valore Marianna Mazzucato

estrae valore invece di crearlo.

Ora, dinanzi al risvegliarsi di coscienze e interessi, alla mobilitazione di aree sociali e di apparati politici bisogna capire dove e come dare uno sbocco all’indignazione nei confronti dei sistemi speculativi di controllo sociale.

L’invito di Mc Luhan di misurare gli effetti delle tecnologie in base alle trasformazioni sociali che inducono, ci porta a un punto che non vedo ancora affrontato debitamente dalle grandi agenzie di senso che discutono del tema. Mi riferisco appunto a “gli schemi” di queste tecnologie come direbbe il grande guru canadese.

Mentre vedo chiaramente una presa di coscienza rispetto allo strapotere dei monopoli del calcolo, sia sul versante privato, con ormai una forte diffidenza per i regali che ci vengono dalla Silicon Valley, sia su quello statale, con la ripulsa al dirigismo autocratico di Cina e Russia, con l’attivazione di normative anti trust, adeguate, appare meno consapevole il secondo livello di distorsione che l’arbitraggio degli algoritmi introduce. 

Penso allo schema che Paolo Zellini ci descrive nel suo saggio La dittatura del Calcolo (Adelphi) quando spiega che gli algoritmi, tutti gli algoritmi,

estendendo il dominio del calcolo alla società diventano inaccessibili, autoritari e categorici.

È questo il buco nero che abbiamo dinanzi. Stiamo parlando ora di quelli che monsignor Vincenzo Paglia nella sua prolusione alla sessione vaticana Call for Ethics ha definito “algoritmi buoni”, ossia macchine di calcolo non finalizzate al potere esclusivo dei proprietari ma destinate al benessere sociale.

È possibile che questo benessere sia prodotto da procedure che rimangono, per la loro struttura e natura “inaccessibili, autoritarie, categoriche”? In sostanza il problema che pongo riguarda la natura e la consistenza di una condivisione permanente e pianificata del divenire del sistema algoritmico.

Noi sappiamo ormai che l’integrazione di queste formule matematiche pensate per risolvere un problema, in un modo e in un modo solo, come è nella prescrizione del programmatore, con soluzione di learning machine rendono l’algoritmo un flusso, un sistema liquido, che si evolve nel momento in cui funziona.

L’anno scorso, il page rank di Google è stato modificato 3642 volte, più di dieci volte al giorno. In moltissimi casi si è trattato di adeguamenti puramente quantitativi, ma in una percentuale da stabilire l’algoritmo con la sua evoluzione ha mutato capacità e potenza, costringendo la materia a cui era applicato a modificarsi per entrare nel suo raggio d’azione.

Ancora Zuboff ci dice che

i processi automatizzati non solo conoscono i nostri comportamenti ma li formano, il focus passa dalla conoscenza al potere. Non basta più automatizzare le informazioni che ci riguardano: il nuovo obbiettivo è automatizzarci.

Per avere un’idea di cosa concretamente stiamo parlando, basterebbe dare un occhio al funzionamento di Spotify.

Da qualche mese l’app che telepaticamente indovina i nostri gusti, proponendoci le compilation più pertinenti per il nostro stato d’animo non si limita più a profilare i suoi abbonati, ma con un nuovo algoritmo mira a intercettare il grafo evolutivo delle nostre sensibilità per capire che musica ci piacerà fra cinque anni.

Poiché Spotify, come Netflix, o Amazon, da service provider è diventato un content provider, producendo musica, inserendo nelle compilation i propri titoli, è in grado di condizionare la nostra evoluzione, spostando la curva evolutiva di quel tanto che basta a farci rientrare nella medietà delle tipologie che possono meglio ottimizzare la sua offerta.

In fin dei conti Cambridge Analytica funziona esattamente con questo schema: interferendo sui processi formativi delle identità che sta profilando, per determinare un cluster medio da maneggiare più facilmente nella sua azione di costruire un’opinione pubblica addomesticabile.

Lo stesso schema è adottato dai social media, quando, condizionando semanticamente l’elaborazione di notizie, e la loro struttura, con titoli e sommari che rendono più accattivante e attrattivo il contenuto, vogliono identificare un comportamento mediano dei propri utenti.

Ma se saliamo di scala, e arriviamo alla ricerca sanitaria, o alle fasi di diagnostica e terapeutica automatizzate, vediamo come sia sempre più applicato lo schema della medietà: farmaci, analisi, terapie sono sempre più basate di un campione specifico di affezioni e comportamenti patologici, su cui si concentra la ricerca, escludendo chi sta fuori dal grafo centrale.

In maniera ancora più evidente il fenomeno appare nelle procedure amministrative, quando vengono applicati algoritmi per la gestione di persone.

Pensiamo a quanto sta accadendo nel centro Amazon di Piacenza, o al ministero della pubblica istruzione. Sono due casi in cui l’algoritmo è utilizzato per ottimizzare la movimentazione di dipendenti, sulla base di valori e standard automatici.

A Piacenza i tempi di saturazione dei tempi di consegna dei plichi sono calcolati sulla base di tabelle che rientrano nella definizione di Zellini, “inaccessibili, autoritarie e categoriche”. Per imbastire un negoziato sindacale sulla gestione di queste tabelle i lavoratori non hanno potuto che richiedere l’apertura della black box, ossia la trasparenza del codice sorgente dell’automatismo che li governa.

Lo stesso è accaduto agli insegnanti che sono stati assegnati a sedi e cattedre mediante un sistema automatizzato, per altro in appalto. Uno di questi insegnanti ha contestato proprio l’oggettività del sistema, chiedendone la verificabilità. Il Tar di Roma, prima e il consiglio di stato poi, gli hanno dato ragione, stabilendo, che

qualsiasi soggetto eserciti un pubblico servizio mediante sistemi automatici computazionali, è tenuto a rendere disponibile il codice sorgente del dispositivo.

Siamo dunque nel campo di applicazioni locali, non sempre dipendenti dagli OTT.

Il principio che si vuole affermare è che qualsiasi sistema automatico, che si realizza, come spiega Bernard Stiegler nel libro La Società automatica (Meltemi editore)

ripetendosi secondo la volontà del proprio autore

va reso accettabile solo se diventa negoziabile proprio la finalità, la volontà, la programmazione, concepita dall’autore del meccanismo. Così come accade per un farmaco o un sistema energetico.

Ovviamente quest’azione negoziabile deve essere esercitata da soggetti che possono sia imporre la contrattazione dell’oggetto, mediante forme di interdizione in caso di rifiuto del proprietario del sistema, sia possano adottare procedure adeguate alla natura e alle modalità di esercizio del dispositivo che si vuole negoziare.

Per il primo problema si tratta di individuare adeguati soggetti negoziali, in grado cioè di esercitare tecnicamente la contrattazione, e di rappresentare interessi e valori socialmente diffusi.

In questo senso abbiamo già sotto gli occhi il ruolo della città, che come comunità che gestisce prioritariamente la transizione dall’analogico al digitale di servizi e relazioni sociali, producendo valore per le piattaforme, è in grado di costringere i service provider al tavolo del confronto.

Londra, Marsiglia, Lione, Barcellona, Amburgo, sono metropoli che stanno aprendo cantieri negoziali con i grandi centri di servizi digitali, come Amazon, Uber, AirB&B. Anche a Milano e Napoli, sulla spinta sindacale, si sta discutendo in merito alla diffusione del 5g di un piano regolatore della connettività pubblica, partendo dalla banale domanda: ma gli ospedali o i grandi musei, o i poli tecnologici saranno nelle aree del 5g e con quale forma e intensità visto che si parla di uno standard assolutamente personalizzabile e performante?

Altri soggetti sono oggi le università che hanno una massa critica rilevante nell’uso, collaudo e validazione di sistemi algoritmici, oppure le categorie professionali come i giornalisti, i medici, oppure ora i giudici e gli avvocati. Lo stesso si profila per il lavoro manifatturiero, che è già al centro di processi di automatizzazione proprio delle fasi programmatiche e discrezionali nei nuovi stabilimenti a 5g, dove è il movimento delle informazioni a dettare ritmi e forme della produzione.

Il punto non è solo costringere il proprietario di un algoritmo a rendere trasparente la modalità e i fini del funzionamento del sistema. Il vero elemento essenziale di questa negoziazione, che interpreta anche gli interessi del produttore e non solo dell’utente o del dipendente, è che nella società dei sistemi di calcolo, elaborati in base a infinite variabili e opzioni, solo la trasparenza, la condivisione e la negoziabilità del dispositivo ne può certificare l’affidabilità, la sicurezza e l’efficienza.

Contemporaneamente il negoziato del numero, ossia della fonte primaria del determinismo sociale, che prevede che solo l’automatizzazione tecnica può subentrare alla democrazia, scambiando partecipazione per efficienza, ci permette anche di rendere il processo tecnologico, esattamente come fu pensato nella sua fase pionieristica sulla costa occidentale americana negli anni Sessanta, un linguaggio di connettività sociale.

Collegare cervelli e abilità, smaterializzando funzioni e consumi è oggi l’unico fattore che possa tramutare il progresso di benessere sociale. La concentrazione in poche mani, ma più in generale nella figura proprietaria, di un sistema che per funzionare deve contare sulla complicità attiva dell’utente, come Spotify sa bene, è una condizione di spreco.

Naturalmente oltre che la dinamica negoziale deve essere messa in campo anche una tecnica del negoziatore. Non basta la disponibilità e l’incontro, deve essere messa a fuoco una nuova grammatica del contratto che si vuole realizzare.

Se come abbiamo visto, l’algoritmo, tutti gli algoritmi, sono entità cangianti, permanentemente in corsa, che mutano in base proprio al funzionamento, dobbiamo sperimentare forme di connessione automatica fra controllore e controllato. Solo un algoritmo può negoziare un altro algoritmo, e solo una piattaforma può controllare un’altra piattaforma.

Entriamo così nel campo delle forme negoziali. Ci sono esempi di piattaforme che oggi automaticamente negoziano i dati di singoli utenti, tracciandone il percorso e soprattutto, come sostiene l’Unione europea, intervenendo nel ri-uso del dato. È quello il momento in cui si genera valore, e in cui l’algoritmo sfugge al controllo umano, evolvendosi secondo percorsi assolutamente imperscrutabili.

Questi sistemi di contrattazione automatica dovrebbero oggi essere riprogrammati dalle comunità, dai soggetti negoziali per realizzare codici e pratiche che rendano la velocità un alleato e non un nemico della democrazia.

È proprio nella fase dell’upgrading, dell’adeguamento progressivo del sistema, in cui il software acquisisce  nuove competenze e capacità, incrociando i dati, da cui  estrae valore informativo, elaborando ragioni per  riprogrammarsi, che deve essere intercettato il potere discrezionale dell’apparato automatico, sia dal punto di vista sindacale, cioè nella funzione di tutelare un dipendente o un utente o un’intera comunità, che rilasciando dati diventa fornitore della macchina cognitiva, sia soprattutto nella funzione di condivisione sociale della strategia dell’algoritmo che persegue obbiettivi e fini plurimi nella sua attività.

Quello spuntare il quesito autorizzativo che ogni sito web propone a un utente, deve diventare la liberatoria a una scelta computazionale che la macchina realizza sulla base della partecipazione e non della subalternità dello stesso utente.

In questo modo, rimanendo nell’ambito di uno straordinario progresso tecnico, che aumenta la potenzialità degli individui, e rende questo pianeta più sostenibile e condiviso, dove eguaglianza non sia solo equivalenza numerica, verrebbe riaccreditata la dimensione comunitaria della tecnologia digitale, e soprattutto proprio quella funzione, ancora esoterica, di elaborazione dei processi automatici, ritornerebbe un effetto della collaborazione sociale e non più di singole illuminazioni imprenditoriali.

Il calcolo non è un’impresa, come non lo è mai stata la scienza, e in generale il sapere, proprio per la sua dimensione collettiva, la sua inevitabile e costante necessità di confronto e di correzione permanente. Oggi la calcolabilità della vita ci propone l’opportunità di dare un senso e un contenuto all’intuizione di Adriano Olivetti, che sosteneva in un illuminante discorso del 1959, che

l’informatica è una tecnologia di libertà.

Gli algoritmi “buoni” contro il capitalismo di sorveglianza ultima modifica: 2020-03-01T12:22:50+01:00 da MICHELE MEZZA

POTREBBE INTERESSARTI ANCHE:

Lascia un commento