BIO – Medicina Costruzione Sociale nella Post-Modernità – Educational Papers • Anno VII • Numero 25 • Marzo 2018
Scritto in collaborazione con Eugenia D’Alterio – biologa
Elite dominanti e strategia umana
La tecnologia di elaborazione dell’informazione sta creando dati a livelli di dettaglio e velocità senza precedenti, trasformando le storie della vita delle persone in numeri, ogni minuto di ogni giorno, in tutto il mondo. Sull’architettura di queste piattaforme tecnologiche c’è poca riflessione, nonostante queste tecnologie processino dati derivati dalle nostre vite quotidiane e modifichino le nostre esistenze. Infatti, i loro output sono diventati “l’oracolo” per la presa di decisioni sulle politiche di gestione delle popolazioni. Come si evince da questa breve relazione sulla questione, che segue il racconto elogiativo di Alex Pentland1 e dei suoi collaboratori, piuttosto che un richiamo all’attenzione, vi è una continua e accelerata autocelebrazione dei progetti per il controllo dei dati come quello della Global Partnership for Sustainable Development Data. In tutte queste architetture di intelligenze artificiali vi è un elemento comune, preservato come indiscutibile, che ha delle conseguenze sulle nostre esistenze e, anche, sulle altre specie e domini: l’idea di una “funzione di assegnazione di credito”.2
L’idea di una “funzione di assegnazione di credito”, che rinforza i “neuroni artificiali”3 che funzionano nei termini della logica di un modello di calcolo, è il cuore dell’Intelligenza Artificiale attuale. In questa logica, se nei modelli matematici, che conformano una rete neurale artificiale, si rendono più “intelligenti” quei piccoli “neuroni artificiali” che vengono rinforzati, l’Intelligenza Artificiale diventa più intelligente. Questa logica, oggi viene trasferita al dominio umano. Infatti, la domanda che l’élite che controlla i progetti di globalizzazione dell’informazione in piattaforme private si pone è: – cosa succederebbe se i“neuroni” artificiali appartenessero, invece, a persone? Come persone abbiamo molte capacità, conosciamo molte cose sul mondo, possiamo, infatti, percepire le cose in un modo “umano”. Cosa accadrebbe, allora, propone questa élite, se avessimo una rete di persone in cui si potessero rinforzare i comportamenti di quelle che stanno aiutando a raggiungere un obiettivo sociale e, magari, scoraggiare quelle che non lo fanno?
Una tale proposizione sembra, certamente, riguardare un’azienda o una corporazione piuttosto che una società umana. Effettivamente, però, noi viviamo tutti in un social network umano, cioè in gruppi di individui connessi tra loro da diversi legami sociali. E, infatti, siamo rinforzati per comportamenti che vengono giudicati come socialmente desiderabili e scoraggiati da atteggiamenti considerati, socialmente e culturalmente, aborriti. Perciò, la cultura può essere interpretata come qualcosa che “proviene” da una sorta di intelligenza artificiale umana sociale con la funzione di rafforzare e/o penalizzare, applicata all’uomo e ai problemi umani, utilizzando, come meccanismo di default, una visione del mondo “condivisa” o imposta nelle popolazioni.
Se il bio-potere decidesse di prendere questo modello generale dell’Intelligenza Artificiale per creare un’Intelligenza Artificiale Umana per la gestione delle popolazioni umane e di altri organismi viventi, ciò porterebbe la critica sociale a porci la domanda circa quale sia il modo “legittimo” per farlo? Sarebbe un’idea opportuna oppure un’idea completamente azzardata? Oppure, sin dalle origini delle prime comunità umane organizzate la gestione delle popolazioni è andata in questo modo e adesso gli studiosi cercano di definire un modello adeguato allo spirito del tempo cibernetico per denominare ciò che in passato erano chiamate le élite dominanti? Se così vanno le cose, si dovrebbe ammettere che vi siano delle “strategie” nella gestione e nello sviluppo delle popolazioni umane, indipendentemente dal fatto che ne siamo consapevoli.

Una cyber strategia umana
La domanda che alcuni esperti della questione, specialmente i direttori dei consigli consultivi di Google, AT&T, NISSAN e delle Nazioni Unite, come ad esempio Alex Pentland, si pongono in questi giorni è come si possa creare un’Intelligenza Artificiale Umana. Qualcosa che, secondo loro, non sia una macchina ma, piuttosto, una cyber cultura nella quale tutti noi possiamo vivere come esseri umani e con un sentimento umano verso di essa. Per Pentland4 questa domanda non va affrontata con un pensiero piccolo, cioè quello che parla di robot e artefatti del genere, ma va affrontata con un pensiero globale (Skynet Thinking, come lui lo denomina). Ma, come si articolerebbe un Skynet che sia qualcosa che riguarda davvero il tessuto umano? La prima cosa che Pentland suggerisce di chiederci è qual sia la magia dell’Intelligenza Artificiale attuale e dove tale “magia” sia “buona” e dove “cattiva”?5
Certamente, per magia Pentland intende la logica, sociale e culturale, sottostante l’attuale Intelligenza Artificiale. In tale contesto, la buona magia consiste nel fatto che l’attuale Intelligenza Artificiale ha qualcosa chiamato “funzione di assegnazione del credito” [Vedi nota 3]. Tale funzione permette di prendere “neuroni” cosiddetti “stupidi”, cioè piccole funzioni lineari, e capire, in una grande rete, quali effettuano meglio la loro funzione e “incoraggiarli” di più. È un modo di prendere una serie casuale di elementi, che sono tutti collegati in una rete, e renderli “intelligenti”, dando loro un feedback su ciò che funziona e cosa no. Si tratta di un po’ di matematica e questa è la semplice “magia” che fa funzionare l’intelligenza artificiale.
La parte “cattiva” (per usare le stesse parole di Pentland) consiste nel fatto che, poiché quei piccoli “neuroni” sono “stupidi”, stentano a generalizzare le correlazioni che imparano. Questo vuole dire che, se un tale “neurone” di un’intelligenza artificiale si confronta con qualcosa che non ha mai “visto” prima, o se il mondo cambia un po’, è probabile che commetta un errore, anche terribile. Un tale “neurone” non possiede il senso del contesto. Esso è, ancora, un piccolo idiot savant (l’idiota sapiente).6
Nella sua apologia verso una cyber strategia umana, Pentland ci invita ad immaginare di aver superato questi limiti dell’Intelligenza Artificiale attuale e, di conseguenza ad immaginare che, invece di usare i “neuroni stupidi”, venissero usati algoritmi che incorporassero alcune conoscenze. Forse, al posto dei neuroni lineari si potrebbero utilizzare neuroni che fossero funzioni in fisica, se si trattasse di elaborare dati fisici, o che, forse, immettessimo ad elaborare numerose informazioni su noi umani, su come interagiamo tra noi e le statistiche e le caratteristiche di ciò. Quando lo si fa e si aggiunge la funzione di assegnazione del credito, si prende l’insieme delle informazioni conosciute – sia di questioni di fisica che umane, sia una serie di dati – al fine di rafforzare le funzioni che funzionano positivamente. Come risultato si otterrebbe un’Intelligenza Artificiale che funzionerebbe assai bene e che, quindi, può generalizzare.
In fisica, si possono prendere un paio di dati “rumorosi”7 e ottenere qualcosa che sia una bella descrizione di un fenomeno perché si sta immettendo conoscenza di come funziona la fisica. Questo è in netto contrasto con l’intelligenza artificiale normale, che richiede milioni di esempi di allenamento ed è molto sensibile al rumore. O le cose che alcuni studiosi hanno già fatto con informazioni concernenti gli umani, in cui si immettono informazioni su come le persone si uniscono e su come accadono le mode. All’improvviso, si scopre di poter rilevare le mode e prevedere le tendenze in modo spettacolare ed efficiente.
Queste considerazioni del pensiero di Pentland riguardo l’intelligenza artificiale gli consentono di postulare che il comportamento umano sia determinato tanto dai modelli della nostra cultura quanto dal pensiero individuale razionale. Questi modelli possono essere descritti matematicamente e utilizzati, indubbiamente, per fare previsioni accurate. Infatti, oggi esiste già la nuova scienza della “fisica sociale” che si è espansa sviluppando una piattaforma predittiva che utilizza big data per costruire una teoria predittiva e computazionale del comportamento umano.8
Quello che Pentland ha fatto con i suoi studenti del MIT Media Lab e del dipartimento delle Brain and Cognitive Sciences, in particolare con Peter Krafft, e Josh Tenenbaum, è osservare come noi umani prendiamo decisioni ricercando in enormi database di decisioni finanziarie e, anche, di altri tipi di decisioni. Ciò che loro hanno documentato è che esiste un modo peculiare in cui noi, esseri umani, prendiamo decisioni che risolvono questo problema di “assegnazione del credito” e rendono la comunità più intelligente. Infatti, si può asserire che l’”assegnazione del credito” affronta un problema classico in evoluzione. I big data documentano che nella presa di decisioni, noi umani, rispondiamo, in modo più potente, a stimoli sociali che implichino la gratificazione degli altri e rafforzino i legami sociali, invece che a stimoli che implichino, esclusivamente, il nostro interesse economico.
L’idea dell’assegnazione del credito costituisce, nel paradigma di Pentland, una modalità di spiegare l’origine della cultura e di come se ne possa gestire il suo indirizzo. Nel pensiero comune, noi umani, possiamo domandarci come risolvere il paradosso circa come possiamo selezionare la cultura nell’evoluzione quando, in una percezione ingenuamente naturalistica, siamo semplicemente noi, gli individui, a riprodurci. Questo, nel paradigma di Pentland, è lo scopo della creazione di un’Intelligenza Artificiale Umana, cioè selezionare le migliori culture e i migliori gruppi, selezionando anche le persone più funzionali al sistema che, con i loro comportamenti, trasmettono la visione del mondo che legittima tali comportamenti. Cioè selezionando un’élite dirigente di riferimento.
Quando la questione viene inquadrata in questa prospettiva e viene delegata alla matematica, si scopre che gli esperti hanno già escogitato un modo per farlo. Questo modo è qualcosa che probabilmente molti di noi non abbiamo mai sentito. Si chiama “campionamento distribuito di Thompson”, un algoritmo matematico utilizzato per scegliere l’azione che massimizza la ricompensa attesa rispetto a un set di possibili azioni.9 Si tratta di un modo di combinare evidenze, di esplorare e di sfruttare possibilità. Secondo Pentland quest’algoritmo ha una proprietà unica in quanto sceglie la migliore strategia sia per l’individuo che per il gruppo. Se si seleziona sulla base del gruppo e, poi, il gruppo viene spazzato via o rinforzato, comunque si sta selezionando anche per l’individuo. In questo paradigma, indubbiamente, se si seleziona per l’individuo e l’individuo fa ciò che è buono per il gruppo, allora, è, automaticamente, la scelta migliore per il gruppo. Questo costrutto costituisce un sorprendente allineamento di interessi e utilità e, in qualche modo, affronta l’enorme domanda nella evoluzione: dove si inserisce la cultura nella selezione naturale?
La chiave per questo campionamento distribuito di Thompson per risolvere il problema dell’assegnazione del credito è qualcosa che gli addetti chiamano campionamento sociale e che, secondo loro, è così semplice come guardarsi intorno e vedere ciò che fanno gli altri, trovando, in questo modo, i comportamenti che sono popolari e, poi, copiarli se ci sembrano una buona idea. Infatti, se si guarda a ciò che noi umani facciamo e si guarda a quanto sia matematico ciò che facciamo, attraverso la scoperta di ciò che è popolare, è trovare le migliori idee nell’ambiente culturale circostante. La propagazione delle idee ha questa funzione di popolarità guida, ma l’adozione individuale ha anche a che fare con il capire come funziona per l’individuo un atteggiamento riflessivo.
Quando si mettono insieme queste due modalità di scelta, si ottiene, secondo quest’interpretazione del comportamento umano decisionale, un processo decisionale valutato dai suoi esponenti come migliore di qualsiasi altra cosa si possa fare. In realtà sitratta di un metodo di portafoglio ottimale bayesiano.10 Questo, per i consulenti di Google e delle Nazioni Unite, tra i più noti clienti di una politica di sviluppo di una cyber-cultura, è piuttosto sorprendente, perché ora hanno una ricetta matematica per fare con noi umani quello che tutte queste tecniche di Intelligenza Artificiale stanno facendo con“stupidi” neuroni del computer. Secondo questi lobbisti, hanno trovato un modo di mettere insieme e d’accordo le persone per prendere decisioni migliori, con sempre più esperienza.
Ma, come vengono messe d’accordo le persone o popolazioni nel mondo reale? Secondo Pentland, uno dei modi è attraverso la pubblicità, o le notizie false. Ci sono molti modi per convincere la gente a pensare che qualcosa sia popolare quando non lo è, ma il modo in cui si può rendere più intelligenti i gruppi di persone, il modo in cui si può creare Intelligenza Artificiale Umana, funzionerà solo se si riesce ad offrire loro un riscontro “sincero”. L’Intelligenza Artificiale Umana deve basarsi sul fatto che ogni particolare azione abbia funzionato o meno.11
Questa è, infatti, la chiave per i meccanismi di intelligenza artificiale. Quello che fanno è analizzare se hanno riconosciuto l’immagine correttamente. Se è così, più uno; se no, meno uno. Questo feedback “sincero” per far funzionare, in modo corretto, questo meccanismo umano è necessario ed è, anche, necessario avere buone maniere per sapere cosa fanno gli altri in modo di poter valutare la popolarità e la probabilità che questa sia una scelta nel modo corretto.
Quello che questi consulenti stanno facendo è cercare di costruire una funzione di assegnazione del credito, una funzione di feedback per le persone in modo che si possa creare un’intelligenza artificiale umana, un’organizzazione intelligente e una cultura intelligente. Ciò che hanno fatto, in molti modi, è la duplicazione di alcune delle prime intuizioni che hanno portato, per esempio, al censimento degli Stati Uniti – cercando di trovare fatti di base su cui tutti possano essere d’accordo e capire il modo in cui la trasmissione di conoscenza e cultura possa avvenire in un modo “sincero”.
Questi consulenti hanno affrontato questa questione dell’assegnazione del credito in molti modi. Nelle aziende, lo hanno fatto con badge [cartellini di riconoscimento] che prestano attenzione a chi è collegato a chi e, poi, collegando questa informazione a quanti buoni risultati erano stati elaborati su base settimanale. Non abbiamo elementi per giudicare se questi ricercatori abbiano risolto più problemi. In ogni modo, quando si riesci a ottenere quel feedback quantitativamente, il che è difficile perché la maggior parte dei comportamenti non viene misurata quantitativamente, si è scoperto che sono stati in grado di migliorare la produttività e il tasso di innovazione all’interno delle organizzazioni del 5% e del 10%. Potrebbe non suonare tantissimo ma è comunque enorme.
Ora Pentland e i suoi colleghi stanno cercando di fare la stessa cosa su larga scala. Ciò che intendono sviluppare è un sistema operativo per l’umanità. Sarebbe come Internet, ma con la capacità di percepire ciò che sta realmente accadendo, nello stesso modo in cui crediamo che il censimento degli Stati Uniti svolga un ottimo lavoro nel raccontarci la popolazione, il PIL e le persone che si spostano.
L’approccio che questi ricercatori stanno usando è qual- cosa che viene chiamato “algoritmi aperti”.12 Questo progetto, è bene saperlo, è supportato dall’Unione Europea come un modo per gestire la privacy, la sicurezza e la competitività. La Cina si è appena avvicinata a questi studiosi per usare questo approccio degli “algoritmi aperti” come un modo per gestire alcuni dei loro conflitti interni. Anche paesi dell’America Latina e dell’Africa iniziano a sperimentare gli algoritmi aperti. Si tratta, secondo i dirigenti del progetto,13 di un modo per prelevare i dati da molte fonti, da aziende e governi, e sottoporli al controllo di tutte le parti interessate, al fine di garantire che la provenienza dei dati e le domande poste ai dati siano comprensibili ed eque. Quindi, viene pubblicato “apertamente”, proprio come viene pubblicato il censimento.
Pentland e i suoi colleghi consulenti, lobbisti e ricercatori, hanno condotto una serie di esperimenti per sviluppare questi sistemi operativi per l’umanità con l’etichetta Data for Development14 [Dati per lo sviluppo]. Lo hanno fatto in posti come Londra, dove sono stati in grado di rilevare comunità sotto stress con alta precisione; in Italia,15 dove sono stati in grado di affrontare i problemi di privacy condividendo dati medici, in particolare tra le giovani famiglie, al fine di avere una salute migliore; in Africa, per mappare la povertà, e guardare i luoghi in cui la violenza etnica stava per accadere, e meglio prevedere la propagazione delle malattie infettive.
Quello che questi esperti stanno costruendo è una grande immagine di come, nella loro visione del mondo o ideologia, si possa rendere l’umanità più intelligente con un’Intelligenza Artificiale Umana costruita su diversi livelli. Uno di questi, asseriscono loro, sarebbero i dati di cui tutti possiamo fidarci, dati che sono controllati da una vasta comunità, dati in cui gli algoritmi sono conosciuti e monitorati, proprio come i dati del censimento su cui tutti noi facciamo affidamento automaticamente, almeno approssimativamente. L’altro livello è una valutazione equa di ciò che fanno e non fanno le persone.16 Quella parte non esiste ancora. Senza di una tale valutazione, però, non si può affrontare il problema dell’“assegnazione del credito”. Questo è il livello in cui notizie false, propaganda e pubblicità si intromettono.
Certo, ora abbiamo la scienza che sostiene come si debba andare a costruire qualcosa che non ha questi problemi di camera dell’eco [echo-chambers].17 Gli esperti coinvolti sostengono essere impegnati nella costruzione di un’intelligenza artificiale umana come un modo per curare alcuni dei mali che vediamo oggi nella società. Dati open source da tutte le fonti e questa nozione di avere una rappresentazione equa delle cose che le persone stanno effettivamente scegliendo, sono le premesse di legittimazione di questi progetti. Purtroppo sappiamo che questo quadro matematico accurato emette echi e notizie false. Inoltre, le persone non seguono i fatti ma le narrazioni, cercando conferme all’interno di microambienti omogenei per informazione, cioè le cosiddette “echo-chambers”.18
Domande autoreferenziale del mondo accademico
Chiunque sia cresciuto nel mondo della classe operaia, o in circoscrizioni dove i ragazzi portano armi nella scuola media e vendono droga, e finisca, eccezionalmente, nel mondo accademico, scopre che il mondo accademico dello establishment è troppo vincolante per essere in grado di porre le domande più importanti. In ogni modo, molti esperti coinvolti nella ricerca di come rendere più intelligenti la società e le organizzazioni, sparsi in luoghi come Pechino, Oxford o Istanbul, conoscono le difficoltà di elaborare informazioni per creare un modello del mondo basato sulla “verità” per prendere buone decisioni. In effetti, lo sforzo sponsorizzato dalla Fondazione ONU, chiamato Global Partnership for Sustainable Development Data [Partnership Globale per i Dati sullo Sviluppo Sostenibile] conosce questa difficoltà.19
Se dati e verità sono costrutti o convenzioni, come si può proporre di immaginare una “vera trasparenza” nei governi? Di immaginare di essere in grado di fare domande, ad esempio, cosa succede con le persone? Come sta cambiando la povertà? Esiste una migrazione forzata? Se informazioni come queste fossero realmente disponibili ovunque nel mondo, sarebbe del tutto trasformativo dei governi.
Il conflitto di interessi è, però, all’ordine del giorno. Lo stesso Pentland è sponsorizzato da una varietà di fondazioni e oltre settanta società. Ha sponsorizzazioni da aziende particolarmente interessate alla sicurezza, alla sicurezza informatica e alla privacy. È anche sponsorizzato dalla Commissione dell’Unione Europea, dal governo cinese, dal governo degli Stati Uniti e da varie entità20 che sono tutte “preoccupate” del perché non sappiamo cosa sta succedendo nel mondo e si chiedono cosa ci impedisca di prendere delle buone decisioni.21
Polarizzazione e disuguaglianza
Oggi abbiamo un’incredibile polarizzazione e segregazione per reddito, quasi ovunque nel mondo, e questo minaccia di squarciare i governi e la società civile. Abbiamo una popolazione crescente, che fa parte della radice di tutte queste problematiche. Sempre di più, i media ci stanno deludendo e il discredito dei media sta facendo sì che le persone perdano la loro idea del “controllo”. Non sanno cosa credere e questa perdita di certezza rende più facile la loro manipolazione. Infatti,c’è un reale bisogno di mettere un fondamento nuovo sotto tutte le nostre culture, con una visione dell’evoluzione della vita e della nostra condizione di specie su cui siamo, principalmente, d’accordo, e di essere in grado di sapere quali cose funzionano e quali no a tale proposito.
Convertiti in una società digitale, abbiamo perso il contatto con le nozioni tradizionali e, anche, moderne di “verità” e“giustizia”. La giustizia era per lo più informale e normativa. Ora l’abbiamo resa molto formale. Allo stesso tempo, l’abbiamo messa fuori dalla portata della maggior parte delle persone. I nostri sistemi legali stanno fallendo in un modo che non avevano mai prima visto proprio perché ora sono più formali, più digitali, meno “integrati” nella società.
Le idee sulla giustizia sono molto diverse in tutto il mondo. Le persone hanno valori molto diversi. Ma una cosa sta diventando comune, le nuove modalità di alienazione del reale. Un test comune per verificare quanto si sia integrati nella società americana è chiedere a qualcuno se possiede o conosce qualcuno che possieda una pickup, che è ancora è il veicolo di vendita numero uno in America e se non conosci persone del genere, questo suggerisce che sei fuori contatto con oltre il cinquanta per cento dell’America. La segregazione è ciò di cui stiamo parlando qui, la segregazione fisica che guida la segregazione concettuale.
Se guardi ai modelli di mobilità – cioè, dove va la gente in una città tipica, e trovi che le persone delle famiglie nel top del lavoro dei, cosiddetti, colletti bianchi [impiegati,commessi, statali] – e le persone delle famiglie nel basso livello – che a volte sono disoccupate o assistite non si vedono mai tra loro. Non vanno negli stessi posti; non parlano delle stesse cose; vedono il mondo in modo molto diverso. È sorprendente. Vivono tutti nella stessa città, nominalmente, ma è come se fossero in due mondi completamente diversi.
Sulla ricchezza estrema
Gli ultra-ricchi d’oggi, come Bill Gates, a questo punto della polarizzazione e segregazione per reddito stanno facendo in modo che diverse parti interessate agiscano, sotto forma di fondazioni, come la Ford Foundation o la Sloan Foundation, dedicate al bene pubblico. Ma hanno versioni diverse del bene pubblico. Certo, questi miliardari sono umani e hanno le debolezze umane e oggi sono attrattati da nuovi “business”. Bolle di estrema ricchezza si sono verificate anche nel 1890, con l’invenzione del vapore, le ferrovie e l’elettricità. Queste nuove industrie hanno creato fortune. La questione è che la concentrazione della ricchezza nelle stesse famiglie si traduce anche in una concentrazione in termini di sistema politico e altri modi.

Intelligenza artificiale e società
Molte persone hanno paura dell’Intelligenza Artificiale e, in un certo senso, dovrebbero esserne intimorite. I promotori dell’Intelligenza Artificiale cercano di ridimensionare tale timore argomentando che si deve capire che l’Intelligenza Artificiale si nutre di dati. Senza dati, l’intelligenza artificiale sarebbe nulla. In realtà, secondo i suoi sostenitori, ciò che va pensato e analizzato non è quel meccanismo che denominiamo intelligenza artificiale ma piuttosto cosa “mangia” e cosa “fa” tale ingranaggio. Nella loro difesa del progetto per la creazione di un’Intelligenza Artificiale Umana, gli sviluppatori della “piattaforma” [frame work]22 Global Partnership for Sustainable Development Data23 creata con l’aiuto dell’UE e di altre entità, sostengono che in essa si possono avere i propri algoritmi, si può avere la propria intelligenza artificiale e si può vedere cosa entra e cosa va fuori, in modo da poter chiedere: è questa una decisione discriminatoria? È questo il genere di cose che vogliamo noi umani? O è qualcosa che è un po’ strana?
Indipendentemente da queste domande artefatte e dalle risposte ineluttabilmente problematiche a cui conducono, ciò su cui si richiama l’attenzione e sul fatto che regolatori, burocrazie e parti del governo sono molto simili alle Intelligenze Artificiali: loro capiscono fino in fondo queste regole che noi chiamiamo leggi, e le elaborano, e prendono decisioni che influenzano le nostre vite. La parte che è veramente “malata” del sistema attuale è che abbiamo una supervisione molto limitata di questi dipartimenti, regolatori e burocrazie. L’unico controllo che abbiamo è la possibilità di eleggere qualcun altro per svolgere le stesse funzioni.
Con un dovuto controllo sui dati, secondo i difensori di questo progetto, si potrebbe chiedere abbastanza facilmente, se l’algoritmo in questione sia un algoritmo equo. Questa intelligenza artificiale può fare cose che noi umani consideriamo essere etiche. Tali situazioni vengono chiamate “human in the loop”24 Questo approccio degli “algoritmi aperti” significa considerarsi capaci di prendere le Intelligenze Artificiali e metterle in una sandbox25 dove si vedrebbe cosa “mangiano” e cosa “depongono” [“consegnano”]. Se si vedono queste due cose, gli sviluppatori del progetto sostengono, si può sapere se le intelligenze artificiali stiano facendo la cosa giusta o la cosa sbagliata. D’accordo agli uomini della Global Partnership for Sustainable Development Data, un’Intelligenza Artificiale potrebbe essere infinitamente complessa e ciò non avrebbe molta importanza finché si possa “vedere” cosa fa e decidere se ci piace.26
In questo paradigma, un punto chiave con l’intelligenza artificiale è che se controlli i dati, controlli l’intelligenza artificiale. Questo è ciò che il gruppo di Pentland e della Global Partnership for Sustainable Development Data sta facendo, impostando sistemi su scale nazionali e, quindi, non hanno bisogno di sapere in dettaglio come vengono prese le decisioni. Ma bisogna sapere che cosa decidi e su quali prove. Finché si può sapere cosa sta facendo l’Intelligenza Artificiale, ci si può chiedere se ci piace o non ci piace. Il problema a cui ora si assiste in così tante parti dei governi, nel sistema giudiziario, eccetera, è che non ci sono dati affidabili su quello che stanno facendo e in quale situazione. Come si può sapere se i tribunali sono onesti o meno se non si conoscono gli input e gli output? Lo si deve sapere. Lo stesso vale per qualsiasi sistema di intelligenza artificiale.
Intelligenza artificiale di nuova generazione
Le attuali Intelligenze Artificiali capaci di “auto-imparare” qualcosa funzionano con la “forza bruta”, cioè hanno bisogno di centinaia di milioni di campioni. Funzionano perché possono approssimare una qualsiasi decisione con tanti piccoli pezzi lineari. L’intuizione chiave dell’Intelligenza Artificiale attuale è che, se si utilizza l’apprendimento di rinforzo per il feedback sull’assegnazione del credito, è possibile ottenere che quei piccoli pezzi possano approssimarsi a qualsiasi funzione arbitraria che si desideri. Se si danno all’Intelligenza Artificiale nuovi input, potrebbe fare cose completamente sorprendenti. Se la situazione cambia, è necessario riqualificarla.
Secondo Pentland, nell’Intelligenza Artificiale di prossima generazione, se si ha, ad esempio, l’intenzione di affrontare questioni di fisica, si devono inserire le leggi della fisica nelle sue funzioni di base, piuttosto che i piccoli e stupidi “neuroni”. Ad esempio,sappia- mo che la fisica usa funzioni come polinomi, onde sinusoidali ed esponenziali. Quelle dovrebbero essere le funzioni di base di un’intelligenza Artificiale che tratti questioni di fisica. Se si guarda tutta la fisica, quasi tutte, in fisica, sono combinazioni di queste funzioni. Un’intelligenza artificiale di nuova generazione supera i piccoli pezzi lineari. Usando quelle funzioni base più appropriate, hanno bisogno di molti meno dati, possono gestire molto più rumore e ottenere risultati migliori.
Simile all’esempio riguardo la fisica, ciò che ha fatto il gruppo di ricerca di Pentland è stato prendere le proprietà statistiche delle reti umane e integrarle in algoritmi di apprendimento automatico. Di conseguenza, è abbastanza sorprendente quello che possono fare. Possono identificare tendenze con pochissimi dati e possono gestire enormi livelli di rumore.
Ciò che i tipici ricercatori dell’apprendimento approfondito [deep learning] fanno è prendere modelli stupidi e, poi, usare un martello incredibilmente grande per colpirli. I risultati non hanno alcun potere esplicativo, motivo per cui l’algoritmo non generalizza a nuovi esempi. Se si conoscesse parte della struttura causale del dominio [domain], se si facesse scienza, cioè utilizzare le conoscenze di base per adattare i dati, ciò che si farebbe sarebbe fornire una spiegazione scientifica dei dati, cioè generalizzare. Questa è, nella visione di Pentland, la differenza tra trovare una soluzione e fare scienza.
L’Intelligenza Artificiale attuale, però, sta facendo statistiche descrittive in un modo che non è scienza, e sarebbe quasi impossibile renderle scientifiche. Se ti do un milione di piccoli valori di pixel in una grande lista, non puoi dire che è un’immagine di un volto umano. Se li metti tutti insieme, l’umano deve ancora percepirlo come una faccia. L’Intelligenza Artificiale attuale sta facendo queste piccole approssimazioni e, insieme, possono arrivare a essere qualcosa di utile, ma la percezione non è nel loro modello. La scienza sarebbe solo nella nostra percezione del modello.
La nostra vita in bit
Queste argomentazioni sulle intelligenze artificiale, sulla funzione dell’assegnazione di credito e su reti neurali sono, per un pubblico over 40 abbastanza astruse. Tuttavia, bisogna cimentarsi, ricordando che le tecnologie di elaborazione dell’informazione trasformano in numeri, ogni minuto di ogni giorno, in tutto il mondo, le storie delle nostre vite umane. Se le temiamo è perché ancora non abbiamo capito che queste tecnologie sono il bio-potere delle cyber élite sui nostri corpi, sulle nostre esistenze. A voi le conclusioni.
- Alex Pentland – professore al MIT e direttore dei laboratori MIT Connection Science e Human Dynamics. Membro fondatore dei consigli consultivi per Google, AT & T, Nissan e del Segretario generale delle Nazioni Unite. È l’autore di Social Physics e Honest Signal
- I problemi di assegnazione sono quei problemi di ricerca operativa in cui bisogna assegnare diverse attività in maniera ottimale. Il problema di assegnazione è un problema combinatorio difficile da risolvere. Tuttavia, questo è uno dei particolari problemi che godono della proprietà di integralità e, difatti, altro non è che un particolare problema del flusso di costo minimo. Questo è un problema di fondamentale importanza in ottimizzazione combinatoria poiché spesso si ritrova nella struttura di problemi più complessi: ovvero spesso i problemi applicativi sono un problema di assegnazione con dei vincoli aggiuntivi. In questo modo – tramite le cosiddette tecniche di rilassamento – si possono utilizzare gli algoritmi studiati per questo problema per risolvere il problema originario. Il problema si presenta, quindi, come un problema di Programmazione lineare intera; tuttavia è possibile ridefinirlo come un problema del flusso di costo minimo (che è risolvibile tramite rilassamento continuo e, quindi, in Programmazione lineare). Non stupisce, perciò, il fatto che, pur essendo questo un problema combinatorio è risolvibile in tempo polinomiale. In informatica, uno schema di approssimazione in tempo polinomiale è un tipo di algoritmo di approssimazione per problemi di ottimizzazione. (Fonte: treccani.it/enciclopedia)
- Nel campo dell’apprendimento automatico, le reti neurali artificiali sono modelli di calcolo matematico/informatico composti di “neuroni artificiali”, che si ispirano ai modelli delle reti neurali biologiche. Questi modelli possono essere utilizzati sia per ottenere una comprensione delle reti neurali biologiche, ma ancor di più per risolvere problemi ingegneristici di intelligenza artificiale come quelli che si pongono in diversi ambiti tecnologici (in elettronica, informatica, simulazione, e altre discipline). Una rete neurale artificiale può essere realizzata sia da programmi software che da hardware dedicato. Questa branca può essere utilizzata in congiunzione alla logica fuzzy. Tale modello è composto da un gruppo di interconnessioni di informazioni costituite da neuroni artificiali e processi che utilizzano un approccio di connessionismo di calcolo. Nella maggior parte dei casi una rete neurale artificiale è un sistema adattivo che cambia la sua struttura basata su informazioni esterne o interne che scorrono attraverso la rete durante la fase di apprendimento. In termini pratici le reti neurali sono strutture non-lineari di dati statistici organizzate come strumenti di modellazione. Esse possono essere utilizzate per simulare relazioni complesse tra ingressi e uscite che altre funzioni analitiche non riescono a rappresentare. Una rete neurale artificiale riceve segnali esterni su uno strato di nodi (unità di elaborazione) d’ingresso, ciascuno dei quali è collegato con numerosi nodi interni, organizzati in più livelli. Ogni nodo elabora i segnali ricevuti e trasmette il risultato a nodi successivi.
- THE HUMAN STRATEGY. A Conversation With Alex “Sandy” Pentland. [10.30.17] https://www.edge.org/conversation/alex_sandy_pentland-the-human-strategy
- Ibidem
- La sindrome del savant (idiota sapiente / idiot savant) indica una serie di ritardi cognitivi anche gravi che presenta una persona, accanto allo sviluppo di un’abilità particolare e sopra la norma in un settore specifico. Wikipedia.
- In elettronica il rumore è l’insieme di segnali, in tensione o corrente elettrica, imprevisti e indesiderati che si sovrappongono al segnale utile, trasmesso o da elaborare, tipicamente presente sul canale di comunicazione tra due o più utenti (o apparati elettronici) e sui dispositivi di ricezione/elaborazione. Il rumore provoca una perdita d’informazione o un’alterazione del messaggio trasmesso. Si distingue tra rumore e disturbo: per rumore solitamente si intendono segnali di origine aleatoria provenienti dall’interno e vengono descritti in termini probabilistici, mentre i disturbi sono segnali che provengono dall’esterno e possono pertanto essere descritti in termini deterministici ovvero interferenze. Il rumore consiste di “fluttuazioni” dovute a proprietà fondamentali della materia e in quanto tali di origine interna e non eliminabili. Queste fluttuazioni che si osservano a livello macroscopico derivano da fluttuazioni a livello microscopico. Si manifestano nella forma di segnali casuali il cui andamento nel tempo non è descrivibile analiticamente, ma solo in termini statistici. L’effetto indesiderato consiste dunque in un’alterazione o distorsione del segnale utile contenente informazione tale da poter inficiare il corretto processo di rilevazione/elaborazione a valle della trasmissione.
- Se la rivoluzione dei big data ha un genio che la presiede, questi è certamente Alex Pentland. In anni di esperimenti innovativi ha distillato scoperte che oggi spalancano le porte di un campo scientifico completamente nuovo: la fisica sociale. La fisica sociale si occupa del flusso delle idee e di come le reti sociali le diffondano e le trasformino in comportamenti. Finora le ricerche dei sociologi sono dipese da set di dati limitati e da indagini che ci dicono ciò che le persone dichiarano circa i propri pensieri e comportamenti, piuttosto che ciò che veramente pensano e fanno. Siamo rimasti ancorati all’uso di categorie quali le classi sociali o il mercato. In realtà, gli esseri umani rispondono in modo molto più potente a stimoli sociali che implichino la gratificazione degli altri e rafforzino i legami, invece che a stimoli che implichino solo il loro proprio interesse economico. Pentland conduce i lettori oltre la soglia della più importante rivoluzione nello studio del comportamento sociale, verso un modo completamente nuovo di guardare alla vita.
- THE HUMAN STRATEGY. A Conversation With Alex “Sandy” Pentland.[10.30.17]op. cit.
- Gli statistici bayesiani sostengono che i metodi dell’inferenza bayesiana rappresentano una formalizzazione del metodo scientifico, che normalmente implica la raccolta di dati (evidenza empirica), che corroborano o confutano una data ipotesi. In questo senso, non si possono mai avere certezze riguardo a un’ipotesi, ma con l’aumentare della disponibilità di dati il grado di fiducia cambia; con sufficiente evidenza empirica, diventerà molto alto (per esempio, tendente a 1) o molto basso (tendente a 0).
- THE HUMAN A Conversation With Alex Pentland. [10.30.17]. Op. cit.
- https://iris.unipa.it/retrieve/ba917b42-c2d1-47a3-b1db-e4ee1e3ae9a0/Monterosso_F_Fake_News_Caracol.pdf.
- Ibidem
- Ibidem
- https://datafordev.com/.
- THE HUMAN STRATEGY. A Conversation With Alex Pentland. [10.30.17]. Op. cit.
- La camera dell’eco è una descrizione metaforica di una situazione in cui le informazioni, le idee o le credenze vengono amplificate o rafforzate dalla comunicazione e dalla ripetizione all’interno di un sistema definito. All’interno di una camera dell’eco figurativa, le fonti ufficiali spesso non vengono più messe in discussione e le viste diverse o concorrenti sono censurate, non consentite o altrimenti sottorappresentate. Trae origine dal fenomeno fisico dell’eco, dove i suoni riverberano in un recinto cavo. Il fenomeno è particolarmente evidente nel caso dei social media e dell’uso che ne fanno politici, istituzioni e altre organizzazioni con il fine di far circolare i propri messaggi a discapito degli altri, comprese le fake news di vario genere. Il meccanismo si amplifica soprattutto quando la cerchia di amici e conoscenti di un soggetto, come spesso accade, condivide idee e pensieri simili. In questo modo sulla pagina Social compariranno notizie, articoli e commenti che contribuiranno sempre più ad amplificare una visione univoca ed acritica su quell’argomento. Un altro meccanismo che genera un fenomeno di camera dell’eco, e quindi di perdita di visione sui punti di vista differenti, sono gli algoritmi dei Social Network che tendono a farci vedere messaggi, notizie e commenti verso i quali abbiamo già in precedenza mostrato interesse, a discapito di tutto il resto.
- https://www.che-fare.com/articoli/algoritmi-prigioni-vetro.
- http://www.data4sdgs.org/ Si tratta di un gruppo di centinaia di paesi e organizzazioni che si impegnano a raggiungere questo obiettivo producendo dati onesti che possono essere utilizzati per un buon processo decisionale.
- https://en.wikipedia.org/wiki/Alex_Pentland.
- THE HUMAN STRATEGY. A Conversation With Alex Pentland. [10.30.17]. Op.cit.
- Framework. In informatica, piattaforma che funge da strato intermedio tra un sistema operativo e il software che lo utilizza.
- http://www.data4sdgs.org/about-gpsdd.
- Human-in-the-loop o HITL è definito come un modello che richiede l’interazione umana. HITL è associato alla modellazione e alla simulazione nella tassonomia live, virtuale e costruttiva. I modelli HITL possono essere conformi ai requisiti dei fattori umani come nel caso di un modello. In questo tipo di simulazione un umano è sempre parte della simulazione e di conseguenza influenza il risultato in modo tale che sia difficile se non impossibile da riprodurre esattamente. HITL consente inoltre facilmente l’identificazione di problemi e requisiti che potrebbero non essere facilmente identificati con altri mezzi di simulazione. HITL viene spesso definito come simulazione interattiva, che è un tipo speciale di simulazione fisica in cui le simulazioni fisiche includono operatori umani, come in un volo o un simulatore di guida. Human-in-the-loop consente all’utente di modificare l’esito di un evento o processo. HITL è estremamente efficace ai fini della formazione perché consente all’allievo di immergersi nell’evento o nel processo. L’immersione contribuisce efficacemente a un trasferimento positivo delle competenze acquisite nel mondo reale. Questo può essere dimostrato dai tirocinanti che utilizzano simulatori di volo in preparazione per diventare piloti. HITL consente anchel’acquisizione di conoscenze relative a come un nuovo processo può influenzare un particolare evento. L’utilizzo di HITL consente ai partecipanti di interagire con modelli realistici e tentare di eseguire come farebbero in uno scenario reale. Le simulazioni HITL portano in superficie problemi che altrimenti non sarebbero evidenti se non dopo l’implementazione di un nuovo processo. Un esempio reale della simulazione HITL come strumento di valutazione è il suo utilizzo da parte della Federal Aviation Administration (FAA) per consentire ai controllori del traffico aereo di testare le nuove procedure di automazione dirigendo le attività del traffico aereo simulato, monitorando l’effetto delle procedure appena implementate. Come con la maggior parte dei processi, c’è sempre la possibilità di errore umano, che può essere riprodotto solo usando la simulazione HITL. Sebbene si possa fare molto per automatizzare i sistemi, gli esseri umani in genere devono ancora prendere le informazioni fornite da un sistema per determinare la prossima linea d’azione in base al loro giudizio ed esperienza. I sistemi intelligenti possono solo andare così lontano in determinate circostanze per automatizzare un processo; solo gli umani nella simulazione possono giudicare con precisione il progetto finale. La simulazione da tavolo può essere utile nelle primissime fasi dello sviluppo del progetto allo scopo di raccogliere dati per impostare parametri ampi, ma le decisioni importanti richiedono la simulazione human-in-the-loop.
- Sandbox, termine che in ambito informatico identifica un ambiente di test, di prova, spesso slegato dal normale flusso di ambienti predisposti per lo sviluppo e il test delle In ambito informatico, una nuova applicazione o una modifica ad una applicazione esistente viene prima sviluppata nell’ambiente di sviluppo (development environment), poi testata in un ambiente apposito (test environment), infine verificato il corretto funzionamento in un ambiente di qualità (quality environment), in cui siano presenti dati copiati recentemente da un ambiente di produzione (live environment o production environment), per poi essere trasferita definitivamente nell’ambiente di produzione.
Il termine sandbox identifica normalmente un ambiente estraneo, diverso da quelli elencati, in cui possono essere fatte sperimentazioni che potrebbero non portare neppure ad aprire una fase di sviluppo, e il cui scopo è quello di investigare sugli effetti di eventuali modifiche o sviluppi che sono ancora nella fase di “studio della fattibilità” o di “studio dei costi e benefici”.
Il termine è stato in tempi relativamente recenti adottato dal linguaggio Java, dove sta ad indicare l’ambiente controllato messo a disposizione dalla JVM, nel quale vengono eseguite le Java applet. Questo ambiente mette a disposizione della applet solo un sottoinsieme controllato e limitato delle effettive risorse del computer sulla quale la JVM è in esecuzione, impedendo quindi alla applet di eseguire operazioni potenzialmente “pericolose” per l’integrità del sistema. Questo approccio si sta estendendo in certi ambienti anche alle applicazioni non Java, in modo da renderle più sicure. Apple, ad esempio, sta imponendo ai propri sviluppatori, per ragioni disicurezza, di modificare le proprie applicazioni presenti nel Mac App Store in modo da renderle «sandboxed». - THE HUMAN STRATEGY. A Conversation With Alex Pentland. [10.30.17]. Op. cit.









