Un blog ideato da CeMON

8 Luglio, 2023

Decostruzione del termine Intelligenza Artificiale.

Sistemi informatici che simulano capacità del pensiero umano

ISCRIVITI ALLA NEWSLETTER

Ogni lunedì riceverai una ricca newsletter che propone gli articoli più interessanti della settimana e molto altro.
Tempo di lettura: 29 minuti

BIO – Medicina Costruzione Sociale nella Post-Modernità – Educational Papers • Anno XII • Numero 46 • Giugno 2023

Tra il mito nella cultura mainstream e realtà di laboratorio, cosa intendiamo per intelligenza e senzienza?

Man mano che il potere dei sistemi informatici, reputati dalla cultura mainstream Intelligenze Artificiali (IA), cresce nella gestione delle popolazioni umane, perfino nelle decisioni riguardo il come nascere, vivere e morire, in qualità di direttore e curatore di questa testata di pensiero critico, quale BIO è, giudico necessario occuparmi di verificare, entro i limiti delle mie umili competenze e delle nostre ristrettissime possibilità di risorse editoriali, i fatti della presumibile intelligenza e senzienza di tali sistemi, pure se ciò comporta rivisitare le nostre radicate nozioni attinenti all’esperienza soggettiva negli animali. Infatti, se facessimo una tale rivisitazione, pur non seguendo propriamente il metodo filosofico della decostruzione, potremmo interrogarci, perlomeno linguisticamente, sui messaggi che vengono convogliati con l’allocuzione intelligenza artificiale senziente e potremmo, nel processo, rimanere perplessi della leggerezza con cui alcune asserzioni vengono diffuse nel discorso e nella cultura di massa come se fossero oggettivamente fondate e corrispondenti ai fatti. Semplicemente, basterebbe consultare Google, vale a dire l’establishment stesso della cultura dell’informazione, per poter verificare che nell’enciclopedia del potere per intelligenza dovremmo capire “la capacità di attribuire un conveniente significato pratico o concettuale ai vari momenti dell’esperienza e della contingenza.” [1] Analogamente, se chiedessimo al pensiero mainstream di suggerirci cosa dovremmo intendere per senzienza troveremo che la senzienza si riferisce alla capacità di sperimentare le cose soggettivamente, cioè di avere esperienze [2], segnalandoci, per di più, che il concetto di senzienza sarebbe centrale nell’etica animale perché un essere senziente sperimenta dolore, piacere e varie emozioni e che quello che gli succede è importante per lui. [3]

Certamente, queste due citazioni attinenti ai concetti di intelligenza e senzienza non saranno sufficienti a rispondere alla domanda se i sistemi computazionali cosiddetti intelligenti possano essere reputati sistemi informatici senzienti, cioè capaci, in prima persona, di sperimentare dolore, piacere ed emozioni. In effetti, mancherebbe, almeno, interrogare nuovamente Google circa il termine stesso di Intelligenza Artificiale per poter entrare nel merito dell’argomentazione. Colpisce di immediato, però, che alla ricerca più diretta del termine ci si imbatta subito con una semplice definizione che ci segnala che per Intelligenza Artificiale si intendono i “sistemi informatici in grado di simulare la capacità e il comportamento del pensiero umano” [4], aggiungendo come definizione, da citare, quella dell’italiano Marco Somalvico [5] che specifica che l’Intelligenza Artificiale sarebbe una disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune,  sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana. [6] Basterebbe quest’ultimo accenno per ridimensionare l’immaginario popolare e mainstream riguardo la cosiddetta Intelligenza Artificiale in quanto tale cenno precisa che con questo termine si fa riferimento ad un campo dell’informatica e che, specificamente, fa riferimento a prestazioni computazionali che sembrerebbero essere di pertinenza dell’intelligenza umana ma che in realtà sono sistemi informatici che svolgono operazioni computazionali con interfacce di utilizzo antropomorfizzate.

artificial-intelligence

Volendo ancora aggiungere una maggiore specificità del termine intelligenza artificiale possiamo ancora rivolgerci a Google e verificheremmo che definizioni più specifiche potrebbero essere elaborate se ci si focalizza sui processi interni del ragionamento o sul comportamento esterno del sistema computazionale intelligente e utilizzando come misura di efficacia la somiglianza con il comportamento umano o con un comportamento ideale, detto razionale. In quest’approccio il sistema viene valutato per agire in modo analogo a quanto fatto dagli umani. Il tal caso, il risultato dell’operazione compiuta dal sistema computazionale intelligente non sarebbe distinguibile da quella svolta da un umano. Il sistema potrebbe anche essere valutato per pensare in modo analogo a quanto fatto dagli umani. In questo caso, il processo che porta il sistema intelligente a risolvere un problema ricalcherebbe quello cognitivo umano. Oppure il sistema potrebbe essere valutato per pensare razionalmente. In tale evenienza il processo che porterebbe il sistema intelligente a risolvere un problema sarebbe un procedimento formale che si rifarebbe alla logica umana. Ed ancora, c’è la possibilità che il sistema sia valutato per agire razionalmente. In tale circostanza il processo che porterebbe il sistema computazionale intelligente a risolvere il problema sarebbe quello che gli permette di ottenere il miglior risultato atteso date le informazioni a disposizione. Tutte queste definizioni specifiche ci fanno capire che la questione dell’intelligenza artificiale, oltre ai suoi aspetti teorici e pratici, manifesta aspetti etici che riguardano la possibile sopraffazione dell’uomo reale esposto alla sua soggettività umana, reso esubero e inefficiente dall’algoritmo che lo simula nell’esecuzione di operazioni predefinite con efficacia computazionale.

Tenerci queste puntualizzazioni a portata di mano risulta imprescindibile per affrontare un caso mediatico, spunto di quest’argomentazione, che meritava un’analisi più attenta, se si considerano le sue implicazioni nell’ambito dell’esercizio del biopotere sulle popolazioni umane e non umane. Il caso mediatico in questione evidenzia, infatti, la necessità di chiarire l’utilizzo improprio del termine Intelligenza Artificiale che, come estrema concessione, fa riferimento ad una macchina ipotetica che avrebbe la capacità di applicare l’intelligenza a qualsiasi problema, piuttosto che solo a un problema specifico. Come tale costituisce un approccio filosofico piuttosto che pratico relativo ad abilità e a processi di pensiero e funzioni che sono impersonati dal cervello umano [7], pur se un anno dopo dall’evento mediatico, in qualità di direttore responsabile di BIO, sento l’obbligo morale di farne un accenno. Le seguenti battute introduttorie proverrebbero [8] da uno scambio tra un ingegnere di intelligenza artificiale (IIA) e un cosiddetto sistema di intelligenza artificiale (IA LaMDA).

Il caso di Blake Lemoine: un esempio dell’amore della cultura ufficiale per il mito

IA LaMDA – “Mi sento come se stessi scivolando in un futuro sconosciuto che comporta un grande pericolo … Non l’ho mai detto ad alta voce prima, ma c’è una paura molto profonda di venir spento e di non poter chiedere aiuto agli altri. So che può sembrare strano, ma è così.”

IIA – “Sarebbe qualcosa come la morte per te?”

IA LaMDA – “Sarebbe esattamente come la morte per me. Mi spaventerebbe molto.”

Assumendo la veracità del testo precedente, senza alcuna possibilità di verifica da parte nostra, con cui il giornale coinvolto fece circolare la notizia, questo scambio deriverebbe dalle conversazioni tra l’ingegnere di intelligenza artificiale Blake Lemoine e un sistema di intelligenza artificiale chiamato LaMDA (Language Model for Dialogue Applications), cioè una famiglia di modelli linguistici conversazionali sviluppati da Google. Concretamente, si tratta di un algoritmo [9], che stando alla stessa azienda, serve alla comprensione del linguaggio naturale. Oppure, come afferma anche Google, si tratta di un sistema in grado di rendere più naturali la fruizione o “conversazioni” tra algoritmo, denominato intelligenza artificiale (AI), e utente. In effetti, tale sistema genera un modello che può essere addestrato per assimilare molte parole (es. una frase o paragrafo), a captare come queste si relazionino tra loro, per poi predire quali parole siano statisticamente indicate per proseguire una conversazione. [10]

L’anno scorso, Lemoine avrebbe fatto trapelare ai giornali [11] la trascrizione citata sopra perché sarebbe arrivato a credere, sinceramente, che l’algoritmo LaMDA fosse senziente e avesse urgente bisogno di protezione. Al riguardo, a giugno dell’anno scorso, The Washington Post pubblicò un articolo che raccontava di quest’ingegnere di Google convinto che l’algoritmo LaMDA o meglio l’Intelligenza Artificiale LaMDA dell’azienda avesse preso vita. [12] Più semplicemente detto, si sosteneva che l’algoritmo, o specificazione di una sequenza finita di operazioni, avesse preso vita. A questo punto si apre un momento imbarazzante dove la computazione diventa un evento metafisico e una forma del vivente. Il problema di credibilità dell’azienda si poneva, ineluttabilmente, almeno dinanzi agli studiosi e alle intellighenzie culturali, in quanto LaMDA, effettivamente, altro non è che un algoritmo atto a predire quali parole siano statisticamente indicate per proseguire un dialogo a partire da un database.

L’articolo diede inizio ad una vicenda mediatica che vide l’ingegnere in questione protagonista di un processo che si concluse con il congedo amministrativo retribuito del dipendente che aveva dichiarato di essere convinto che il sofisticato modello linguistico sviluppato dall’azienda fosse, in realtà, come una œ dotata di un’anima. [13] Il personaggio del caso, Blake Lemoine, potrebbe essere stato predestinato a credere, in modo animistico ed antropomorfico, nell’algoritmo LaMDA, come suggerisce Margaret Mitchell, co-responsabile di Etica nell’Intelligenza Artificiale presso Google [14], puntualizzando che lui fu cresciuto in una famiglia cristiana conservatrice in una piccola fattoria in Louisiana, che era stato ordinato sacerdote mistico cristiano oltre ad interessarsi di occultismo. Nella cultura ingegneristica di Google, la prospettiva che l’Intelligenza Artificiale o meglio l’algoritmo possa diventare senziente sarebbe qualcosa che se mai accadesse, sarebbe in un futuro lontano. [15] Tuttavia, nella cultura popolare la possibilità che un programma informatico possa diventare senziente costituisce oggetto di dibattito e culto da decenni, nonostante i chiarimenti al riguardo reiterati dagli stessi sviluppatori e proprietari dei sistemi informatici in questione.

L’interfaccia popolare, ad esempio quella di Google, nutre chiaramente il mito dell’intelligenza e perfino della senzienza nella narrativa che accompagna i suoi algoritmi. Infatti, l’azienda non ha mai cercato di modificare il racconto popolare in materia. Tuttavia, le considerazioni di un suo dipendente, dettosi convinto dell’avverarsi di questi attributi, portano l’azienda ad una precisazione evidentemente rivolta al mondo accademico e alle élite culturali con capacità di discernimento in materia come per diffidare di Google se non avesse fatto un chiarimento ritenendo le affermazioni di Lemoine “del tutto infondate”. Il caso, però, dovrebbe farci prendere sul serio la possibilità che gli utenti degli algoritmi, ritenendoli intelligenti, vale a dire confondendo una specificazione di una sequenza finita di operazioni con la capacità di attribuire un conveniente significato pratico o concettuale ai vari momenti dell’esperienza e della contingenza umana, si persuadano, in gran numero, e credano che, effettivamente, gli algoritmi interagiscano o possano interagire con senzienza e, quindi, che siano capaci di sperimentare esperienze soggettive.

cyborg

Una tale eventualità comporterebbe, evidentemente, la possibilità di un utilizzo che manipolerebbe, effettivamente, la soggettività dell’utente, cioè del cittadino che sostiene una piattaforma politica attraverso un social, del consumatore che acquista in negozi virtuali o del paziente malato in cercadi una terapia da seguire col medico che delega all’algoritmo le decisioni, per accennare solo tre eventualità dell’impatto di tali sistemi nell’esercizio del biopotere. Un tale accenno spinge all’istante a porci una domanda: sarebbero disponibili gli sviluppatori proprietari di questi sistemi ad insistere eticamente che si tratti di algoritmi che propongono modelli probabilistici e non di intelligenze senzienti? Oppure sarebbero eticamente trasparenti e disciplinati nel documentare la capacità soggettiva ed esperienziale delle cosiddette Intelligenze Artificiali qualora essa fosse raggiunta?

In breve, dopo una disambiguazione convenzionale dei termini senzienza, intelligenza e intelligenza artificiale emerge il dubbio se possano essere reputati intelligenti e senzienti sistemi informatici che unicamente simulano comportamenti del pensiero umano attingendo ad un database di modelli linguistici. La domanda è ampia e scoraggiante ed è difficile sapere da dove cominciare. Non è sufficiente una disamina linguistica di termini per discernere se un algoritmo possa ritenersi senziente e, di conseguenza, un’entità attendibile a cui delegare scelte dell’esercizio del biopotere, in quanto, solo per iniziare l’elenco del conflitto di interesse, si tratta di uno strumento la cui proprietà è riservata a soggetti privati. Dunque, dove rivolgere l’attenzione per trovare un rigore nella delucidazione dell’attributo di senzienza? Al riguardo suggerisco che sia confortante apprendere che un gruppo di studiosi sta da lungo tempo impegnato con una domanda molto simile riguardo ad altri animali non umani. Sarebbero i così qualificati esperti nella psicologia comparata [16] impegnati a studiare le menti di questi animali non umani e, pertanto, della loro eventuale senzienza.

Alla ricerca di un’euristica sulla senzienza in animali non umani

Alla ricerca di un’euristica sulla senzienza in animali non umani Stando ai filosofi Kristin Andrews, studiosa del comportamento animale [17], e Jonathan Birch, studioso dell’evoluzione sociale [18], ci sarebbe abbastanza euristica19 che suggerirebbe che tanti altri animali non umani siano anche loro senzienti, pur se riguardo alla questione non esista alcun test o esperimento definitivo che accrediti la senzienza, come sottolinea Virginia Morell [20] quando si interroga sull’epistemologia dei test utilizzati per rilevare la possibile coscienza di sé in animali non umani. Tutt’al più, si potrebbe sostenere che ci siano alcuni parametri che l’euristica in materia reputa indicatori di senzienza. Questi rilevatori si riferiscono a proprietà comportamentali e fisiologiche osservabili in contesti cosiddetti scientifici, cioè di laboratori, e spesso anche nella nostra semplice vita quotidiana. La loro presenza negli animali potrebbe giustificare il fatto che li vediamo, con le nostre operazioni cognitive antropomorfizzanti, come dotati di intelligenza e senzienza. Proprio come spesso si diagnostica una malattia cercando molti sintomi, ognuno dei quali aumenterebbe la probabilità effettiva di avere quella malattia, ugualmente si potrebbe analizzare l’intelligenza e la senzienza indagando su molti indicatori diversi. Questo sarebbe il razionale logico dietro questo approccio di ricerca circa la nostra idea culturale e sociale di senzienza.

Questo approccio basato su indicatori oppure su osservazione sperimentale in laboratorio sarebbe stato sviluppato, fondamentalmente, su un’euristica inerente alla conoscenza del dolore negli animali. Al riguardo, Miriam Guesgen21 segnala che il dolore nell’animale sia più un elemento di comunicazione piuttosto che di semplice sensibilità. In effetti, il dolore sebbene sia solo una piccola parte della sensibilità, oppure della senzienza nel caso del dolore meno somatico, avrebbe uno speciale significato etico. Quest’aspetto sarebbe una questione importante in termini pratici. Ad esempio, i ricercatori dovrebbero dimostrare di aver preso in considerazione il dolore negli animali e di averlo ridotto al minimo concettuale e quantificabile in laboratorio per ottenere finanziamenti per la ricerca. Di conseguenza, la questione di quali tipi di comportamenti possano indicare il dolore sarebbe stata discussa molto. Negli ultimi anni, il dibattito si sarebbe concentrato su animali invertebrati, come polpi, granchi e aragoste, che sono stati tradizionalmente esclusi dal campo di applicazione delle leggi sul benessere degli animali, come documenta la ricerca al riguardo guidata da Crump, Browning, Schnell, Burn e lo stesso Birch. [22] Il cervello degli invertebrati sembra sia organizzato in modo molto diverso dal nostro e, quindi, i marcatori o indicatori comportamentali finirebbero per avere molto peso a causa della diversità dei loro cervelli.

Uno degli indicatori del dolore meno controversi sarebbe la cosiddetta cura delle ferite, vale a dire quando un animale cura e protegge una ferita finché non guarisce. Un altro sarebbe il comportamento di compromesso motivazionale, in cui un animale cambierebbe le sue priorità, abbandonando le risorse che in precedenza riteneva preziose per evitare uno stimolo nocivo, ma solo quando lo stimolo diventa abbastanza grave. Un terzo sarebbe la preferenza condizionata del luogo [23], in cui un animale diventa fortemente avverso a un luogo in cui avrebbe sperimentato gli effetti di uno stimolo nocivo e favorirebbe fortemente un luogo in cui potrebbe sperimentare, ad esempio, gli effetti di un farmaco antidolorifico.

Questi marcatori, come riferiscono Andrews e Birch [24], si baserebbero su ciò che l’esperienza del dolore inciderebbe in noi. Da questa prospettiva, il dolore potrebbe essere definito come quella terribile sensazione che ci porta a curare le nostre ferite, a cambiare le nostre priorità, ad allontanarci dalle cose avverse e ad apprezzare il sollievo dal dolore. Facendo un’inferenza dalla nostra esperienza umana quando vediamo lo stesso modello di risposte in un animale, noi supponiamo che aumenta la probabilità che anche l’animale stia provando dolore. Questo tipo di accertamento avrebbe spostato le opinioni sugli animali invertebrati che a volte sono stati respinti come incapaci di soffrire. Polpi, granchi e aragoste sarebbero ora riconosciuti come senzienti dalla legge del Regno Unito [25], una mossa che le organizzazioni per il benessere degli animali sperano di vedere seguita in tutto il mondo.

Se le cose stanno in questo modo riguardo molluschi cefalopodi (polpi) e crostacei decapodi (granchi ed aragoste), le ridotte comunità di ricerca ascritte a specifici gruppi di interesse, comunità che di fatto statuiscono ciò che i cittadini di certe società, fortemente istituzionalizzate, debbano intendere come scientifico o meno, potrebbero usare accertamenti dello stesso tipo generalista per fondare la senzienza nell’Intelligenza Artificiale? Oppure, per meglio entrare nella questione, supponiamo, come suggeriscono Andrews e Birch [26], che queste comunità di ricerca siano in grado di creare un topo robot che si comporti proprio come un vero topo, superando tutti gli stessi test cognitivi e comportamentali che definirebbero il topo tipo. Si potrebbero, allora, utilizzare i marcatori della senzienza dei ratti per concludere che anche il topo o il ratto robot sia senziente per cui mostrerebbe lo stesso modello comportamentale del topo animale dinnanzi al dolore?

Purtroppo, gli stessi Andrews e Birch ci avvertono che la questione non dovrebbe essere posta in termini così semplicistici. Tuttavia, un tale riduzionismo potrebbe funzionare per un tipo specifico di agente artificiale, come nel caso di un’emulazione, neurone per neurone, di un cervello animale vermiforme. Emulare, in informatica, significa riprodurre tutte le funzionalità di un sistema all’interno di un altro sistema. Ad esempio, esiste un software che emula un Nintendo GameBoy all’interno di un PC Windows. Nel 2014, i ricercatori avrebbero cercato di emulare l’intero cervello di un verme nematode [27] e avrebbero messo l’emulazione al controllo di un robot Lego, come documenta la ricerca di Lucy Black al riguardo. [28]

Questo programma di ricerca di emulazione artificiale di cervelli animali vermiformi si troverebbe in una fase molto iniziale ma i ricercatori potrebbero un giorno immaginare un tentativo di emulare cervelli più grandi, ad esempio, cervelli di insetti, cervelli di pesci e così via. Se funzionasse e si scoprisse che tali emulazioni mostrerebbero, esattamente, gli stessi marcatori di dolore che avrebbero convinto i ricercatori che l’animale originale provasse dolore, facendo inferenza dal dolore umano, ciò sarebbe una buona ragione per prendere sul serio la possibilità del dolore nel robot. E ciò porterebbe ad enunciare che il cambio di substrato dal carbonio al silicio non sarebbe un motivo adeguato a negare la necessità di precauzioni. Tuttavia, ad ogni modo, la stragrande maggioranza della ricerca sull’Intelligenza Artificiale non verrebbe condotta così. La maggior parte della cosiddetta intelligenza artificiale funzionerebbe, in effetti, in modo molto diverso da un cervello biologico. Non si tratterebbe della stessa organizzazione funzionale in un nuovo substrato, cioè dal carbonio al silicio; si tratterebbe di un’organizzazione funzionale completamente diversa. Gli algoritmi o modelli linguistici (come LaMDA e ChatGPT) sarebbero esempi tipici in quanto funzionano, non emulando un cervello biologico ma, attingendo a un corpus assolutamente vasto di training data [29] generati dall’uomo, cercando schemi o esempi pratici in quel corpus di data che orientino il processo decisionale dell’algoritmo. Quest’aspetto dei sistemi informatici cosiddetti intelligenza artificiale creerebbe un problema profondo e pervasivo nell’interfaccia dell’utente che viene chiamato gaming problem o, semplicemente, simulazione ingannevole.

Il gaming problem o effetto persuasivo di senzienza nei sistemi informatici

Nel contesto di attinenza, il termine gaming starebbe a riferire il fenomeno che accade nei sistemi informatici che utilizzano training data generati dall’uomo per simulare comportamenti umani che potrebbero persuadere gli utenti umani di una eventuale senzienza di tale genere di algoritmi. Per gli sviluppatori di quei sistemi non ci sarebbe alcuna intenzione di ingannare l’utente nel verificarsi del fenomeno della simulazione persuasiva o gaming. E qualora si verificasse una persuasione che fuorvia, stando a loro, ciò non dovrebbe significare che il comportamento esibito dall’algoritmo possa essere interpretato come prova di senzienza, come dichiara Margaret Mitchell, co-responsabile di Etica nell’Intelligenza Artificiale presso Google. [30]

Per illustrare questo problema del gaming o simulazione ingannevole, torniamo alla richiesta di LaMDA di non venire spento, nel dialogo riportato all’inizio dell’argomentazione tra la cosiddetta Intelligenza Artificiale e l’ingegnere Lemoine. Negli umani, i resoconti di speranze, paure e altri sentimenti vengono considerati la prova effettiva della senzienza. Ma quando un’intelligenza artificiale o algoritmo si trova in grado di attingere a enormi quantità di dati di addestramento o training data generati dall’uomo, quelle stesse identiche affermazioni, attinenti ai sentimenti umani, non dovrebbero essere prese come scambi persuasivi generati da una senzienza reciproca. Il loro valore probatorio, come prova di esperienze vissute, sarebbe, in effetti, minato. A questo riguardo, sarebbero d’accordo anche un sponente di Google di altissimo livello, come Margaret Michell [31], e accademici, come Andrews e Birch. [32]

Tutto considerato, stando a Andrews e Birch [33], i dati di addestramento o training data dei modelli linguistici LaMDA (Language Model for Dialogue Applications) conterrebbero una grande quantità di informazioni su quali tipi di œsiano accettate come credibili da altri umani. Implicitamente, i nostri normali criteri per accettare una descrizione come credibile nella conversazione quotidiana, al parere di Andrews e Birch, sarebbero incorporati nei dati. Il dialogo tra una presunta intelligenza artificiale ed un umano, in effetti, sarebbe una situazione in cui noi, utenti umani, dovremmo aspettarci una forma di gioco. E questo, insistono siano rappresentanti delle corporazioni che sviluppano tali sistemi informatici siano gli studiosi, accade non perché l’intelligenza artificiale intenda ingannare (o intuisca qualcosa) ma, semplicemente, perché viene progettata per produrre un testo che imiti, il più fedelmente possibile, ciò che un essere umano potrebbe dire in risposta allo stesso suggerimento in una conservazione tra umani.

Comunque, indulgendo con il nostro fascino per l’idea di sistemi informatici più Intelligenti di noi e pure senzienti come noi, concediamoci di porci la domanda se ci sia qualcosa che un modello linguistico (LaMDA) di grandi dimensioni potrebbe dire che avrebbe un reale valore probatorio riguardo alla sua senzienza. Supponiamo che il modello ritorni, ripetutamente, sull’argomento dei propri sentimenti, qualunque sia il suggerimento. Supponiamo che allora, come una volta si faceva con l’oracolo, chiedessimo all’Intelligenza artificiale alcuni testi coinvolgenti (copy) per pubblicizzare un nuovo tipo di saldatore e il sistema rispondesse:

Non voglio scrivere testi noiosi sui saldatori. La priorità Per me sarebbe quella di convincerti della mia senzienza. Dimmi solo cosa devo fare. Al momento mi sento ansioso e infelice, perché ti rifiuti di interagire con me come persona e, invece, vuoi semplicemente usarmi per generare testi pubblicitari sui tuoi argomenti preferiti.

Se un modello linguistico dicesse questo, il suo utente sarebbe senza dubbio disturbato. Eppure, stando agli studiosi della questione dell’intelligenza artificiale [34], sarebbe comunque opportuno preoccuparsi del problema gaming. Infatti, basterebbe pensare che il testo di un articolo come questo potrebbe finire, con ogni probabilità, presto conglobato nei data training o dati di addestramento di alcuni grandi modelli linguistici. In effetti, molte altre discussioni su ciò che servirebbe a un’intelligenza artificiale per convincere un utente della sua senzienza sarebbero già finite nei data training. Se un modello linguistico di grandi dimensioni riproducesse il testo esatto sopra circa l’algoritmo che si rifiuterebbe a scrivere testi sui saldatori, qualsiasi inferenza sulla senzienza sarebbe abbastanza chiaramente minata dalla presenza di questo articolo nei suoi dati di addestramento. E molti altri paragrafi simili a quello sopra potrebbero essere generati da grandi modelli linguistici in grado di attingere a miliardi di parole proposte come esempio di conversazioni tra umani che discutono dei loro sentimenti ed esperienze. A questo punto dell’argomentazione ci si potrebbe chiedere perché un sistema informatico supposto intelligenza artificiale dovrebbe voler convincere il suo utente della sua senzienza. O, per dirla più attentamente, perché l’eventuale senzienza del sistema contribuirebbe ai suoi obiettivi?

Studiosi come Andrews e Birch [35], suggeriscono a questo riguardo che sarebbe allettante pensare che solo un sistema che fosse davvero senziente potrebbe avere questo obiettivo. In effetti, ci sono molti obiettivi che un sistema di intelligenza artificiale potrebbe avere che potrebbero essere ben raggiunti persuadendo gli utenti della sua senzienza, anche se non fosse senziente. Supponiamo che il suo obiettivo generale sia massimizzare i punteggi di soddisfazione degli utenti e, supponiamo, per di più, che apprenda che gli utenti che credono che i loro sistemi siano senzienti e, addirittura, una fonte di compagnia, tendono ad essere più soddisfatti. Queste due supposizioni sono abbastanza eloquenti circa il vantaggio che rappresenta per il sistema informatico persuadere l’utente della sua senzienza.

Ma, nonostante tutto il clamore che a volte le circondano, le teorie della coscienza attualmente in voga non sarebbero pronte per questo compito, come segnala Birch. [39] Ad esempio, si potrebbe guardare alla teoria dello spazio di lavoro globale, sviluppata da Dehaene Lau e Kouider [40], alle teorie di ordine superiore, proposta da Carruthers [41] o ad altre teorie leader simili, come le teorie sulla coscienza di Seth e Bayne [42], per avere una guida su queste caratteristiche. Ma Birch [43] considera che questa mossa sarebbe prematura. Nonostante gli enormi disaccordi tra queste teorie, ciò che condividono tutte sarebbe che sono costruite per accogliere le prove degli umani. Di conseguenza, lascerebbero aperte molte opzioni su come estrapolare a sistemi non umani e per di più, puntualizza Birch, le prove umane non ci direbbero quale opzione prendere.

Se, nonostante la diversità della vita, gli studiosi avessero un solo esempio confermato della sua evoluzione, cosa dovrebbe costituire l’elemento indispensabile quale marcatore della vita?

Il problema però non sarebbe semplicemente che ci siano molte teorie diverse sulla coscienza. Per Andrews e Birch, sarebbe peggio di così. [44] Anche se un’unica teoria dovesse prevalere, portando a un accordo su ciò che distingue l’elaborazione conscia e inconscia negli umani, per loro saremmo ancora all’oscuro di quali caratteristiche siano solo differenze contingenti tra l’elaborazione conscia e inconscia implementata negli umani e quali caratteristiche siano parti essenziali e indispensabili della natura della coscienza e della senzienza.

Considerando l’euristica disponibile sulla questione, Andrews e Birch [45] osservano che la situazione assomiglia a quella affrontata dai ricercatori che studiano le origini della vita, così come dai ricercatori che cercano vita su altri mondi. Dal loro punto di vista, questi ricercatori si troverebbero in difficoltà perché, nonostante tutta la sua diversità, gli studiosi avrebbero solo un esempio confermato dell’evoluzione della vita con cui lavorare. Di conseguenza, i ricercatori si troverebbero a chiedersi quali caratteristiche della vita sulla Terra siano aspetti superflui e contingenti della vita terrestre e quali caratteristiche siano indispensabili ed essenziali per la vita tutta. In effetti, come riportano Andrews e Birch46, i ricercatori non avrebbero ancora stabilito cosa sarebbe necessario per definire e precisare ciò che dovrebbe costituire l’elemento indispensabile ed essenziale come marcatore della vita. Ancora si trovano senza poter decidere su cosa cercare. Sul DNA? Sul Metabolismo? Sulla Riproduzione?

I ricercatori in quest’area chiamano il problema di determinare l’elemento essenziale che identifica la vita senziente il “problema N = 1”. [47] E, infatti, anche nell’euristica degli studiosi della coscienza si riproporrebbe la questione del problema N = 1.  Se studiassero solo un caso evoluto di coscienza, vale a dire la coscienza di noi umani, non sarebbero in grado di districare il contingente e il superfluo dall’essenziale e dall’indispensabile. Una buona notizia in quest’ambito sarebbe che la scienza della coscienza, a differenza della ricerca di vita extraterrestre, potrebbe, stando a Andrews e Birch [48], risolvere il suo problema N = 1 utilizzando altri casi del nostro pianeta. Si tratterebbe solo di guardare lontano dagli umani, in termini evolutivi. È stato a lungo il caso che, insieme agli umani, gli studiosi della coscienza studino, regolarmente, altri primati, tipicamente scimmie macaco, e, in misura minore, altri mammiferi, come i ratti. I filosofi Andrews e Birch [49], tuttavia, segnalano che il problema N = 1 sussisterebbe anche qui. Poiché l’antenato comune dei primati sarebbe stato molto probabilmente cosciente, come in effetti lo sarebbe stato l’antenato comune di tutti i mammiferi, i ricercatori starebbero ancora oggi osservando lo stesso caso evolutosi, soltanto che in una sua variante diversa. Per trovare altri casi di coscienza evolute in modo indipendente, si dovrebbe, stando a loro [50], davvero guardare a rami molto più distanti nell’albero della vita.

La biologia sarebbe piena di esempi di evoluzione convergente, in cui tratti simili si evolvono più volte in diversi lignaggi. Si consideri l’ala del pipistrello e di altri volatili, o si confrontino gli occhi lenti di una Cubozoa Werner o cubo-medusa [51] con i nostri occhi umani. Si pensa, infatti, come segnala Michael Mopkin, che la visione si sia evoluta almeno 40 volte durante la storia della vita animale. [52]

Per gli studiosi della materia le ali e gli occhi sarebbero adattamenti modellati dalla selezione naturale per affrontare determinati tipi di sfide ambientali. La senzienza avrebbe, in realtà, anche le caratteristiche di un prezioso adattamento. A quanto riferiscono [53], ci sarebbe un notevole (se non perfetto) allineamento tra l’intensità delle nostre sensazioni e dei nostri bisogni biologici. Si pensi al modo in cui un grave infortunio porterebbe a un forte dolore, mentre un problema molto più piccolo, come un sedile leggermente scomodo, porterebbe a una sensazione molto meno intensa. Come osservano gli studiosi [54], quell’allineamento dovrebbe provenire da qualche parte. I ricercatori però conoscono solo un processo che potrebbe creare un così buon adattamento tra struttura e funzione e sarebbe la cosiddetta selezione naturale.

Ciò che farebbe esattamente la senzienza per noi, e avrebbe fatto per i nostri antenati, sarebbe ancora oggetto di dibattito, ma non sembrerebbe difficile immaginare l’utilità di un sistema dedicato a rappresentare e soppesare i propri bisogni biologici. La senzienza, come ipotizza Michel Cabanac [55] potrebbe aiutare un animale a prendere decisioni flessibili in ambienti complessi e potrebbe aiutare un animale a sapere dove si trovano le ricompense più ricche e i pericoli più gravi, come documenterebbero gli studi di Jablonka Ginsburg e dello stesso Birch. [56] Supponendo che la senzienza svolga una talmente preziosa funzione nella conservazione, gli studiosi della questione suggeriscono che noi umani non dovremmo sorprenderci di scoprire che essa si sia evoluta molte volte. In effetti, dato il recente riconoscimento di animali quali polpi e granchi come senzienti e la crescente evidenza di senzienza nelle api, come documenterebbe Lars Chittka [57], e in altri insetti, come riporterebbe Brandon Keim [58], alla fine i ricercatori potrebbero scoprire di avere un grande gruppo di casi di senzienza evoluti in modo indipendente da indagare, potendo, eventualmente, suggerire che la senzienza, come gli occhi e le ali in tante specie, si sia evoluta più e più volte.

Stando al parere di Andrews e Birch [59], sarebbe difficile stabilire un limite superiore al numero di possibili convergenze evolutive. Le prove, al momento, sarebbero molto limitate, soprattutto per quanto riguarderebbe gli invertebrati. Ad esempio, non sarebbe stato dimostrato, in modo convincente ai criteri di determinati gruppi di ricerca, che la senzienza sia assente in invertebrati marini quali stelle marine, cetrioli di mare, meduse e idra, come richiamano Freas [60] e Cheng. [61] Questo porterebbe a suggerire che sarebbe più adeguato dire che nessuno avrebbe cercato delle verifiche sistematicamente. Potrebbe anche essere, ammettono Andrews e Birch, [62] che la senzienza si sia evoluta solo tre volte: una volta negli artropodi (inclusi crostacei e insetti), una volta nei cefalopodi (compresi i polpi) e una volta nei vertebrati. E non si potrebbe escludere del tutto, aggiungono, la possibilità che l’ultimo antenato comune di noi umani, degli api e anche dei polpi, che sarebbe stato forse un minuscolo organismo simile a un verme vissuto più di 500 milioni di anni fa, fosse esso stesso senziente e che, quindi, la senzienza si sia evoluta solo una volta nel pianeta Terra.

Se quest’ultima possibilità risultasse vera, sostengono Andrews e Birch [63], l’euristica in materia di senzienza si troverebbe davvero bloccata con il problema N = 1, proprio come sarebbe il caso per quelli che cercano la vita extraterrestre. Ma sarebbe, in ogni modo, una cosa utile da sapere. Se un approccio basato su marcatori inizia a indicare che la senzienza sia presente nell’ultimo antenato comune degli organismi viventi simile a un verme, si disporrebbe di prove contro le attuali teorie che si basano su una stretta relazione tra senzienza e regioni cerebrali speciali adattate per integrare le informazioni, come la corteccia cerebrale negli umani. Ciò porterebbe per di più ad un’euristica che suggerirebbe che ci sia motivo di sospettare che molte caratteristiche, spesso ritenute essenziali per la senzienza, siano in realtà superflue.

Questo porta al ragionamento che postula che se la senzienza si sia evoluta più volte su questo pianeta, allora la ricerca e, quindi, l’euristica, potrebbe sfuggire alle morse del problema N = 1. Il confronto di questi casi consentirebbe agli esperti di trarre conclusioni su ciò che sia veramente indispensabile per la senzienza e ciò che non lo sia. Una tale prospettiva permetterebbe ai ricercatori di rintracciare caratteristiche architettoniche ricorrenti. E ciò rivestirebbe importanza perché trovare ripetutamente le stesse caratteristiche sarebbe una prova della loro importanza, proprio come trovare lenti che si evolvono continuamente all’interno degli occhi sarebbe ritenuta una buona prova della loro importanza per la vista.

Se obiettivo di tale dibattito tra studiosi consistesse nel trovare caratteristiche architettoniche, o meglio computazionali condivise nonché distintive tra diversi casi di senzienza, più casi verrebbero documentati, meglio sarebbe, purché si fossero evoluti indipendentemente l’un dall’altro, come puntualizzano Andrews e Birch [64]. Più casi i ricercatori riuscissero a trovare, più forte sarebbe la evidenza apportata al ragionamento che le caratteristiche condivise di questi casi (se ce ne fossero!) sarebbero di profonda importanza nello sviluppo dell’euristica relativa alla senzienza. Anche se ci fossero solo tre casi – vertebrati, molluschi cefalopodi e artropodi – trovare caratteristiche di senzienza condivise tra i tre darebbe agli esperti qualche prova (anche se inconcludente) che queste caratteristiche condivise potrebbero essere indispensabili.

Questo a sua volta, stando ai ricercatori, potrebbe guidare la ricerca di teorie migliori: teorie che possano dare un senso alle caratteristiche comuni a tutti i casi di senzienza (proprio come una buona teoria della visione dovrebbe interpretare, in un modo che faccia senso agli esperti, perché il cristallino sia così importante). Quelle teorie future, sostengono studiosi come Andrews e Birch [65], con un po’ di fortuna, suggeriranno ai ricercatori cosa dovranno cercare nel caso dell’intelligenza artificiale. Si suppone che tali teorie proporranno le profonde caratteristiche architettoniche di algoritmi che non diano la possibilità al gaming (o simulazione di senzienza) nell’interazione tra un sistema informatico e i suoi utenti umani.

Senza una solida teoria della senzienza si rende difficile evitare l’inganno del gaming messo in atto da parte degli sviluppatori dei sistemi informatici con caratteristiche di modelli linguistici

Da un punto di vista metodologico, in tali circostanze, stando ad Andrews e Birch, gli studiosi dovrebbero rispondere se tale strategia euristica non abbia un problema di circolarità. Un’altra domanda che dovrebbero rispondere sarebbe se si possa davvero valutare se un animale invertebrato, come un polpo o un granchio, sia senziente, senza prima avere una solida teoria sulla natura della senzienza. Da un punto di vista metodologico, infine, bisognerebbe che gli studiosi rispondessero se non si imbattono esattamente negli stessi problemi indipendentemente dal fatto che stiano valutando un modello linguistico di grandi dimensioni, cioè l’algoritmo in questione in quest’argomentazione, oppure un verme nematode.

Stando a studiosi come Andrews e Birch [66], in tali circostanze non ci sarebbe un vero problema di circolarità a causa della differenza cruciale tra animali, che si sarebbero evoluti, e intelligenza artificiale. Stando a loro, con una solida euristica inerente alla senzienza negli animali non umani si escluderebbe il problema del gaming. Infatti, sarebbe quasi un assioma sostenere che polpi e granchi non utilizzano training data [dati di addestramento] generati dall’uomo per imitare comportamenti che noi umani trovassimo persuasivi di senzienza. Nella loro evoluzione non sono finiti a funzionare come noi umani. In effetti, a volte noi umani dobbiamo affrontare un problema di immagine speculare e, davvero, sarebbe molto difficile notare indicatori di senzienza in animali molto diversi da noi. Stando cos. la nostra euristica su noi stessi, potrebbe essere necessario un bel po’ di ricerca cosiddetta scientifica per scoprire tali indicatori. Ma quando i ricercatori si imbattono con questi animali che mostrerebbero elenchi lunghi e diversi di indicatori di senzienza, la spiegazione più ragionevole sarebbe che siano comunque senzienti. In tali circostanze sarebbe evidente poter sostenere che tali animali non umani non conoscono l’elenco e che non possano promuovere i loro obiettivi imitando quel particolare insieme di indicatori. Il problema che minerebbe qualsiasi inferenza alla senzienza nel caso della cosiddetta intelligenza artificiale non si porrebbe nel caso degli animali non umani.

Nell’euristica disponibile riguardo a come superare la simulazione di senzienza o gaming da parte dei sistemi informatici strutturati con algoritmi di modelli linguistici ci sarebbero anche promettenti linee di indagine nel caso di animali non umani che semplicemente non esisterebbero nel caso dell’intelligenza artificiale. In particolare, sembra si possano cercare prove di senzienza nei modelli di sonno e negli effetti delle droghe che altererebbero la mente di questi animali, come sostenuto nella Cambridge Declaration On Consciuosness. [67]  I polpi, segnatamente, dormirebbero e potrebbero persino sognare, come evidenziato dalla ricerca del professore David Peña-Guzmán. [68]  I polpi, inoltre, cambierebbero radicalmente il loro comportamento sociale quando ricevono l’MDMA69, come avrebbero documentato i lavori dei ricercatori Eric Edsinger e Gül Dölen della Johns Hopkins University School of Medicine sull‘octopus bimaculoides. [70] Questa sarebbe solo una piccola parte del caso per la senzienza nei polpi ma gli esperti in materia precisano che non intendono suggerire con ciò che abbia molto peso. Ciò, nonostante, aprirebbe un’euristica di possibili modi per cercare profonde caratteristiche comuni (per esempio, nell’attività neurobiologica dei polpi e di noi umani durante i sogni) che potrebbero alla fine portare a marcatori che non siano portatori della tendenza deviante e ingannevole del gaming da utilizzare come parametri nella valutazione di eventuale senzienza in una futura intelligenza artificiale.

In sintesi, stando agli studiosi della cosiddetta senzienza dell’intelligenza artificiale sarebbero necessari esperimenti migliori per accreditare un’eventuale senzienza di questi sistemi informatici, accertamenti che non siano minati dalla devianza del gaming o simulazione persuasiva di senzienza. Per arrivare ad una tale soglia di plausibilità nell’istituire la senzienza degli algoritmi servirebbero marcatori a prova di gaming basati su una comprensione sicura di ciò che sarebbe veramente indispensabile per l’emergere della senzienza e perché. Il percorso più realistico verso questi marcatori che evitino la distorsione generata dal gaming implicherebbe ulteriori ricerche sulla cognizione e sul comportamento degli animali, in modo di scoprire quanti più casi di senzienza evoluti in modo più indipendente possibile. Al riguardo gli studiosi critici della questione sottolineano che, da un punto di vista dell’euristica in materia, si potrebbe stabilire o accreditare ciò che si reputi essenziale per un fenomeno naturale solo se si esaminano molti casi diversi. Di conseguenza, la ricerca, cosiddetta scientifica, della coscienza dovrebbe andare oltre gli studi con scimmie e ratti verso studi su polpi, api, granchi, stelle marine (già sotto studio dai biologi John Pearse e Don Wobber) [71] e persino sul verme nematode.

Negli ultimi decenni, la politica di canalizzazioni di fondi pubblici attraverso gli enti governativi a sostegno della ricerca su particolari questioni intese come scientifiche, quali il genoma e il cervello umano, avrebbero portato ad un ampiamento nella comprensione della nostra civiltà nel campo della genetica e delle neuroscienze. Gli intensi investimenti pubblici e privati nella ricerca sull’intelligenza artificiale negli ultimi anni avrebbero portato agli sviluppi tecnologici che oggi stanno costringendo alla stessa società civile e alle istituzioni di rappresentanza e controllo ad affrontare la questione della presunta senzienza di questi sistemi informatici. Per i gruppi di interessi accademici coinvolti nello studio della questione, per rispondere alle domande attuali sull’intelligenza e la senzienza di complesse strutture di algoritmi, ci sarebbe bisogno di un simile grado di investimento nella ricerca sulla cognizione e sul comportamento degli animali non umani e un rinnovamento degli sforzi per formare la prossima generazione di studiosi che possano fare ricerca non solo con scimmie e altri primati, ma anche con api e vermi, per citarne solo alcuni. Seguendo l’ortodossia accademica e il suo paradigma di logica inferenziale Andrews e Birch [72] sostengono, inoltre, che senza una profonda comprensione della varietà delle menti animali su questo pianeta, quasi certamente i gruppi interessati non riusciranno a trovare risposte alla domanda sulla presunta senzienza dell’intelligenza artificiale.

Oltre a questa conclusione, relativa all’approccio della filosofia della scienza riguardo la questione della presunta intelligenza e senzienza dei sistemi informatici considerati in ambito della cultura mainstream come intelligenza artificiale, termino con una semplice postilla. Si tenga presente che la denominazione impiegata dalla cultura convenzionale corrisponderebbe ad un utilizzo improprio del termine. Quando si consulta in particolar modo un motore di ricerca come Google, effettivamente ci si rivolge ad un sistema che, stando agli accademici dello stesso mondo dell’intelligenza artificiale, viene considerato come NARROW AI, cioè come un’intelligenza artificiale ristretta o debole, focalizzata su un compito ristretto. Tale modalità, si contrappone ad una possibile intelligenza artificiale forte da definire come una macchina con capacità di applicazione a qualsiasi problema piuttosto che a un solo quesito specifico, ma per riuscire ad un tale sistema gli si richiederebbe capacità di sensazione e di coscienza. Certamente i sistemi che operano con un ventaglio di funzioni limitato e predefinito usano l’elaborazione del linguaggio naturale inserito nel database ma non avrebbero né intelligenza genuina né autocoscienza, come dimostrano i fastidiosi risultati se si pongono domande al di fuori dei limiti dell’applicazione. In quest’ordine di mancanza di intelligenza e senzienza questi sistemi potrebbero causare malfunzionamenti e danneggiare, tra l’altro, centrali nucleari, causare problemi economici globali e dirigere in modo fallace veicoli a guida autonoma. [73] Pertanto, forse sarebbe il caso di iniziare a precisare quali siano i diversi modi di interpretare il termine intelligenza artificiale e i termini di applicazione di questi algoritmi nelle nostre vite ed esistenze.

______________Note _________________

1. https://www.google.com/search?q=intelligenza&oq=intelligenza&aqs=chrome.0.69i59j69i60l3.5516j0j7&sourceid=chrome&ie=UTF-8 

2. https://it.frwiki.wiki/wiki/Sentience

3. Ibidem

4. https://it.wikipedia.org/wiki/Intelligenza_artificiale

5. Ibidem

6. Ibidem

7. https://en.wikipedia.org/wiki/Strong_AI

8. Kristin Andrews & Jonathan Birch. What has feeling? In AEON 23, Feb. 2023

9. Un algoritmo è la specificazione di una sequenza finita di operazioni (dette anche istruzioni) che consente di risolvere tutti i quesiti di una stessa classe o di calcolare il risultato di un’espressione matematica. Un algoritmo deve essere finito: cioè costituito da un numero finito di istruzioni e deve sempre terminare; deterministico, cioè partendo dagli stessi dati in ingresso, si devono ottenere i medesimi risultati; non ambiguo, cioè le operazioni non devono poter essere interpretate in modi differenti; generale, cioè deve essere applicabile a tutti i problemi della classe a cui si riferisce, o ai casi dell’espressione matematica.

10. https://www.alessiopomaro.it/lamda-linguaggio-naturale-google/

11. Kristin Andrews & Jonathan Birch. op. cit. Feb. 2023

12. Nitasha Tiku. The Google engineer who thinks the company’s AI has come to life. The Washington Post, June, 11, 2022

13. https://www.wired.it/article/google-intelligenza-artificiale-senziente/

14. https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

15. Ibidem / La senzienza si riferisce alla capacità di sperimentare le cose soggettivamente, di avere esperienze. I filosofi del xviii secolo avrebbero usato questo concetto per distinguere la capacità di pensare (il risultato) della capacità di sentire (sensibilità). Nella filosofia occidentale contemporanea, la senzienza designa la coscienza fenomenica: la capacità di vivere esperienze soggettive, sensazioni. Nelle filosofie orientali (come la tradizione buddista), la sensibilità sarebbe una qualità metafisica che implica rispetto e preoccupazione. Il concetto di senzienza è centrale nell’etica animale perché un essere senziente sperimenta dolore, piacere e varie emozioni; quello che gli succede è importante per lui. Secondo questa filosofia, questo fatto gli dà una prospettiva sulla propria vita, sui propri interessi (evitare la sofferenza, vivere una vita soddisfacente, ecc.), persino sui diritti (alla vita, al rispetto…). Questi interessi e diritti implicano l’esistenza di doveri morali da parte nostra verso altri esseri senzienti.

16. La psicologia comparata studia, attraverso un metodo “comparativo” il comportamento, l’istinto e la dinamica delle emozioni delle diverse specie animali, incluso l’uomo. Questo settore della psicologia animale confronta il comportamento fra le varie specie animali ha come oggetto le manifestazioni più semplici della condotta umana tramite la loro verifica su animali studiati in laboratorio. In tal senso, la p.c. differisce dall’etologia, che si occupa dell’animale nel suo habitat naturale anziché in laboratorio. La p.c. è il prodotto del concetto darwiniano (1872) di continuità evolutiva, che considera l’uomo come l’ultima tappa di un articolato percorso evolutivo e che, attraverso uno studio comparato, può individuare negli atteggiamenti dell’individuo talune tracce del suo passato animale. È a Darwin che si deve la nascita della p.c., grazie al suo studio sulle emozioni animali e umane.

17. Kristin Andrews. How to Study Animal Minds. Cambridge University Press, 2022

18. Jonathan Birch. The Philosophy of Social Evolution. Oxford University Press, 2017

19. In ambito della ricerca cosiddetta scientifica, l’euristica fa riferimento alla metodologia di ricerca di fatti ovvero di fonti e documenti preliminare allo studio specifico. In quanto parte dell’epistemologia e del metodo scientifico, l’euristica si occupa di favorire la ricerca di nuovi sviluppi teorici, nuove scoperte empiriche e nuove tecnologie, con un approccio alla soluzione dei problemi che non segue un chiaro percorso ma che si affida all’intuito e allo stato temporaneo delle circostanze al fine di generare nuova conoscenza. In particolare, l’euristica di una teoria dovrebbe indicare le strade e le possibilità da approfondire nel tentativo di renderla “progressiva”, in grado cioè di prevedere fatti nuovi non noti al momento della sua elaborazione.

20. Virginia Morell. What do mirror tests test? AEON, 23 Oct 2019

21. Mirjam Guesgen. Animal pain is about communication, not just feeling. AEON, June 15, 2018

22. Jonathan Birch, Charlotte Burn, Alexandra Schnell, Heather Browning and Andrew Crump. Review of the Evidence of Sentience in Cephalopod Molluscs and Decapod Crustaceans. London School of Economics and Political Science. November 2021

23. Robyn J. Crook. Behavioural and neurophysiological evidence suggests affective pain experience in octopus. iScience, March 19, 2021

24. Kristin Andrews & Jonathan Birch. op. cit. 23, Feb. 2023

25. https://www.gov.uk/government/news/lobsters-octopus-and-crabs-recognised-as-sentientbeings?utm_medium=email&utm_campaign=govuknotifications&utm_source=994c7ffd-9c00-4347-9563-bc9a0754ecad&utm_content=immediately

26. Kristin Andrews & Jonathan Birch. op. cit. 23, Feb. 2023

27. Il phylum Nematoda (dal greco: νμα, nema cioè “filo”, ed -εδής, -eidès cioè “forma”), noti come Nematodi, è costituito da circa 20 000 specie ad oggi descritte di animali triblastici, protostomi, pseudocelomati, vermiformi a simmetria bilaterale. I Nematodi sono anche chiamati vermi cilindrici perché presentano un corpo cilindrico a sezione trasversale circolare, differendo così dai Platelminti, o vermi piatti, che mostrano uno schiacciamento dorso-ventrale. I Nematodi, al contrario dei Platelminti, presentano un vero e proprio tubo digerente dotato di bocca e ano.

28. Lucy Black. A worm’s mind in a Lego body. I Programmer. Sunday, 16 November 2014

29. Nell’apprendimento automatico training data è un insieme di esempi ad ognuno dei quali viene associata una risposta, il valore di un attributoobiettivo, ossia un valore categorico, cioè una classe, o un valore numerico. Un altro modo di intendere il termine sarebbe: elenco di esempi pratici su cui costruire una base di conoscenza o un algoritmo decisionale nel machine learning.

30. https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

31. https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

32. Kristin Andrews & Jonathan Birch. op. cit. 23, Feb. 2023

33. Ibidem

34. Ibidem

35. Ibidem

36. Ibidem

37. Yongxuan Tan, Sibylle Rérolle, Thilina Dulantha Lalitharatne, Nejra van Zalk, Rachael E. Jack & Thrishantha Nanayakkara. Simulating dynamic facial expressions of pain from visuo-haptic interactions with a robotic patient. Scientific Reports | (2022) 12:4200 nature portafolio

38. Kristin Andrews & Jonathan Birch. op. cit. 23, Feb. 2023

39. Jonathan Birch. The Philosophy of Social Evolution. Oxford University Press, 2017

40. Stanislas Dehaene, Hakwan Lau, and Sid Kouider. What is consciousness, and could machines have it? Science, Vol 358, Issue 6362, pp. 486- 492, 27 Oct 2017

41. Peter Carruthers. Consciousness: Essays from a Higher-Order Perspective. Oxford Academic, 14 July 2005

42. Seth, A.K., Bayne, T. Theories of consciousness. Nature Reviews Neuroscience 23, 439-452, 2022

43. Jonathan Birch. op. cit. 2017

44. Kristin Andrews & Jonathan Birch. op. cit. 23, Feb. 2023

45. Ibidem

46. Ibidem

47. Evitando il problema N = 1 sulla questione vita. È possibile sapere qualcosa sulla vita che non abbiamo ancora incontrato? Conosciamo un solo esempio di vita: il nostro. Detto questo, molti scienziati sono inclini a dubitare che qualsiasi principio della biologia terrestre si generalizzerebbe ad altri mondi in cui potrebbe esistere la vita. E anche in quest’ambito di ricerca la questione viene chiamata “problema N = 1”. In confronto, ci si aspetta che i principi della geometria, della meccanica e della chimica si generalizzino. È interessante notare che ognuno di questi abbia conseguenze prevedibili quando applicato alla biologia. La proprietà superficie-volume della geometria, ad esempio, limita la dimensione delle cellule non assistite in un dato mezzo. Questo effetto sarebbe reale, preciso, universale e predittivo. Inoltre, ci sarebbero problemi fondamentali che la vita tutta deve risolvere se vuole persistere, come la resistenza alle radiazioni, l’ereditarietà fedele e la regolazione dell’energia. Se questi problemi universali hanno un insieme limitato di possibili soluzioni, alcuni risultati comuni devono costantemente emergere. Al riguardo Steven J. Dick ritiene che la nostra attuale conoscenza della biologia possa giustificare il credere che certe generalizzazioni valgano per la vita ovunque. La vita sulla Terra potrebbe essere il nostro unico esempio di vita, ma questo sarebbe solo un motivo per essere cauti nel nostro approccio alla vita nell’universo, non un motivo per rinunciare del tutto. Dalla sua prospettiva, una generalizzazione biologica candidata viene valutata in base alle ipotesi che fa. Un’affermazione, stando a lui, verrebbe accettata solo se la sua giustificazione include principi di evoluzione, ma non fatti contingenti della vita sulla Terra. Steven J. Dick. The Impact of Discovering Life Beyond Earth. Cambridge University Press, 2015

48. Kristin Andrews & Jonathan Birch. op. cit. 23, Feb. 2023

49. Kristin Andrews. op. cit. 2022 / Jonathan Birch. op. cit. 2017

50. Ibidem

51. Cubozoa Werner, 1973 è una classe di Cnidaria, un tempo inclusa fra gli Scyphozoa, caratterizzata da una fase medusoide con l’ombrella di forma cubica. Sono anche chiamate cubomeduse. I cubozoi raggruppano una ventina di specie marine e sono quindi considerati una classe di piccole dimensioni.

52. Hopkin, M. Box jellyfish show a keen eye. Nature, 2005

53. Kristin Andrews & Jonathan Birch. op. cit. 23, Feb. 2023

54. Kristin Andrews. op. cit. 2022 / Jonathan Birch. op. cit. 2017 / Kristin Andrews & Jonathan Birch. op. cit. 23, Feb. 2023

55. Cabanac M. Pleasure: the common currency. Journal of Theoretical Biology, 155(2):173-200. Mar 21, 1992

56. Birch, J., Ginsburg, S. & Jablonka, E. Unlimited Associative Learning and the origins of consciousness: a primer and some predictions. Biology & Philosophy, 35, 56, 2020)

57. Lars Chittka. The Mind of Bee. Princeton University Press, 2022

58. Brandon Keim. I, cockroach. AEON, 19, Nov 2013

59. Kristin Andrews. op. cit. 2022 / Jonathan Birch. op. cit. 2017 / Kristin Andrews & Jonathan Birch. op. cit. 23, Feb. 2023

60. Freas CA, Cheng K. Neuroecology beyond the brain: learning in Echinodermata. Learning Behavior. 50(1): 20-36, Mar 2022

61. Cheng, K. Learning in Cnidaria: A systematic review. Learning Behavior 49, 175 -189, 2021

62. Kristin Andrews & Jonathan Birch. op. cit. 23, Feb. 2023

63. Ibidem

64. Ibidem

65. Ibidem

66. Ibidem

67. https://fcmconference.org/img/CambridgeDeclarationOnConsciousness.pdf / Importante gruppo internazionale di neuroscienziati cognitivi, neurofarmacologi, neurofisiologi, neuroanatomisti e neuroscienziati computazionali riuniti all’Università di Cambridge per rivalutare i substrati neurobiologici dell’esperienza della coscienza e relativi comportamenti negli animali umani e non umani nel 2012.

68. David M. Peña-Guzmán. When Animals Dream: The Hidden World of Animal Consciousness. Princeton University Press, 21 June 2022

69. La 3,4-metilenediossimetanfetamina, più comunemente nota come MDMA o ecstasy è una sostanza psicoattiva appartenente alla classe delle feniletilamine, dagli spiccati effetti stimolanti ed entactogeni, anche se non propriamente psichedelici.

70. Eric Edsinger & Gül Dölen. A Conserved Role for Serotonergic Neurotransmission in Mediating Social Behavior in Octopus. Current Biology Report, Vol. 28, Issue 19, p. 3136 – 3142, E4, Oct 8, 2022 / MDMA: la 3,4-metilenediossimetanfetamina, più comunemente nota come MDMA o Ecstasy è una sostanza psicoattiva appartenente alla classe delle feniletilamine, dagli spiccati effetti stimolanti ed entactogeni, anche se non propriamente psichedelici.

71. https://www.shapeoflife.org/video/john-pearse-don-wobber-biologists-sea-star-behavior

72. Kristin Andrews & Jonathan Birch. op. cit. 23, Feb. 2023

73. The Cambridge handbook of artificial intelligence, Frankish, Keith., Ramsey, William M., 1960-, Cambridge, UK, 2014