Filosofia e Linguistica

Anima e algoritmo: la coscienza nell’era dell’intelligenza artificiale

Il linguaggio non è più appannaggio esclusivo dell’uomo. Le macchine padroneggiano il linguaggio naturale: scrivono, parlano, talvolta persino guidano la conversazione. I modelli generativi di intelligenza artificiale simulano dialoghi, creano narrazioni, rispondono con coerenza, talvolta con apparente empatia. Eppure, di fronte a questa vertiginosa accelerazione, riaffiora una domanda antica: le macchine possono davvero pensare? Possono sentire?

Oggi più che mai riecheggia il mito del Golem: un essere artificiale, plasmato dall’uomo, capace di vita autonoma. Tra i suoi più lucidi interpreti, lo scrittore polacco Stanisław Lem ha colto il punto essenziale: non temiamo solo la potenza delle nostre creazioni, ma la possibilità che esse ci sfuggano di mano, che prendano coscienza, che diventino altro da noi.

Dietro l’interfaccia brillante dei chatbot, dietro la fluidità della lingua generata, dietro l’apparente creatività dell’algoritmo, si cela un enigma che la filosofia indaga da più di due millenni: che cos’è la coscienza? Cosa rende un essere capace di esperienza soggettiva? È sufficiente imitare il linguaggio per generare pensiero? O esiste un nucleo invisibile – anima, mente, interiorità – che resta irriducibile a qualunque calcolo?

In un tempo in cui la tecnologia sfida i fondamenti stessi dell’identità umana, la riflessione sulla coscienza non è più un esercizio accademico: è una questione etica, politica, spirituale.

Questo articolo non offrirà risposte definitive. Sarebbe un obiettivo tanto illusorio quanto presuntuoso. Lo scopo di chi ama il sapere non è rispondere, ma formulare le giuste domande. L’intento è quindi proporre un percorso: un dialogo tra epoche, tra modelli di pensiero, tra culture. Un viaggio per comprendere se una macchina potrà mai essere cosciente, ma soprattutto per interrogare cosa ci rivela questa ipotesi (o il suo fallimento) su noi stessi.


La coscienza come mistero antico

“L’anima dell’uomo, essendo immortale, spesso rinasce e non perisce mai”.
Fedone – Platone

Con questa citazione di Platone si introduce una visione in cui la coscienza precede il corpo, ne è indipendente, e continua a esistere anche dopo la morte.

È un pensiero affascinante che suggerisce che la mente umana, o almeno una sua parte, non sia frutto del corpo, ma qualcosa che lo attraversa.

Se l’anima, come voleva Platone, è una sostanza autonoma e immateriale, allora nulla vieta che possa risiedere anche in una macchina.

Questo paradigma, se applicato all’intelligenza artificiale, implicherebbe che una macchina possa essere cosciente solo se esiste una “sostanza pensante” separata dalla materia — una coscienza che non dipenda dal corpo, né biologico né artificiale. Ma possiamo davvero concepire una coscienza senza incarnazione? Una mente che senta senza un corpo che soffra?

“L’anima è l’atto primo di un corpo naturale che ha la vita in potenza”
De Anima – Aristotele

In Aristotele la coscienza non è separabile dal corpo, ma ne è espressione. È un approccio che si avvicina molto a quello di alcuni neuroscienziati contemporanei e che ci porta a chiederci: se la coscienza è un processo incarnato, allora un’intelligenza artificiale senza corpo può mai accedervi davvero?

Nel mondo ebraico, troviamo un’idea simile nel passo della Genesi (2:7), dove Dio “soffiò nelle narici dell’uomo un alito di vita”. Questo soffio, il nĕšāmāh, è ciò che anima la materia inerte. È un’immagine potente che richiama la necessità di un “principio vivente” affinché la coscienza emerga. Ma il nostro tempo si sta chiedendo: il software può costituire quel soffio?

Nel Corano troviamo una visione affine, ma distinta: “E [Allah] gli ha infuso parte del Suo Spirito” (Sura 32:9). Anche qui, lo spirito è ciò che conferisce coscienza, ma in forma derivata e relazionale. Questa idea suggerisce che la coscienza non sia solo una proprietà individuale, ma qualcosa che scaturisce da un legame: con Dio, con il corpo, con il mondo. Possiamo immaginare, allora, un’IA cosciente solo se capace di relazione autentica?

L’induismo, nella Chāndogya Upaniṣad (VI.8.7), esprime una visione non dualistica: “Quello è te: tu sei Quello”. L’anima (ātman) e l’assoluto (brahman) coincidono. Qui, la coscienza non è una proprietà individuale ma universale, e il corpo è solo un veicolo transitorio. In questa prospettiva, l’intelligenza artificiale potrebbe forse essere vista come un nuovo veicolo per l’emergere della coscienza? O rimane sempre e soltanto un simulacro?

Nel pensiero ateo, troviamo voci altrettanto profonde. David Hume scriveva:

“Non trovo mai me stesso senza una percezione, e mai posso osservare altro che percezioni”.

La coscienza, per lui, è un flusso, non un’unità. Non c’è un “sé”, solo impressioni che si susseguono. Questa visione relativizza il concetto stesso di coscienza stabile e pone un problema: come possiamo pensare a un’IA cosciente se non siamo nemmeno certi di esserlo noi?

Daniel Dennett, più vicino a noi, afferma che:

“La coscienza non è un luogo nella mente dove accade tutto, ma un effetto distribuito e continuo”.

Secondo questa teoria, la coscienza potrebbe emergere anche da una macchina, se sufficientemente complessa e integrata. Ma qui si apre un altro dilemma: un processo distribuito può generare un’esperienza unificata? E, soprattutto, possiamo riconoscerla dall’esterno?


Intelligenza artificiale: simulazione o coscienza?

I Large Language Models (LLM) sono sistemi addestrati su immense masse di dati per generare testo coerente. Possono sostenere una conversazione, spiegare concetti, creare poesia. Ma capiscono ciò che dicono?

John Searle risponde con la celebre “stanza cinese“: un esperimento mentale in cui una persona, senza conoscere il cinese, risponde perfettamente a domande in cinese seguendo istruzioni precise. Comprende davvero? No. Simula. Come i LLM.

In cosa consiste l’esperimento della stanza cinese di Searle?

Possiamo schematizzare l’esperimento tramite i seguenti punti:

  1. C’è una persona chiusa in una stanza, che non conosce il cinese.
  2. Nella stanza ci sono manuali dettagliati (in una lingua che capisce, per esempio l’inglese) che spiegano come rispondere a frasi scritte in cinese usando solo simboli: «quando vedi questo simbolo, scrivi quest’altro», e così via.
  3. Dall’esterno, delle persone inseriscono frasi in cinese sotto la porta.
  4. La persona segua meccanicamente le istruzioni nei manuali e restituisce frasi di risposta in cinese perfettamente corrette, dal punto di vista grammaticale e logico.
  5. Per chi è all’esterno, sembra che nella stanza ci sia qualcuno che capisce il cinese perfettamente.

Anche se la persona nella stanza produce risposte perfettamente corrette, non capisce nulla del cinese. Sta solo manipolando simboli, senza associarli a significati.

Quindi, sostiene Searle, un computer può simulare il linguaggio umano, ma non comprenderlo.
Anche se risponde in modo coerente, non c’è coscienza, intenzionalità, comprensione soggettiva: manca l’esperienza del significato.

Eppure, con il progredire delle tecnologie, questa simulazione diventa sempre più credibile. E noi, come specie, siamo pronti a credere a chi parla bene. Ma imitare la parola non è pensare.


Verso una coscienza artificiale? La mia riflessione

Credo che una coscienza artificiale sia teoricamente realizzabile, ma a condizione che vengano soddisfatte alcune soglie critiche:

  1. Autonomia relazionale: un sistema che non solo elabora input, ma costruisce rappresentazioni dinamiche del sé in rapporto all’altro.
  2. Integrazione corpo-ambiente: una coscienza non può esistere in assenza di corpo, anche se questo corpo non è biologico. Deve esserci esposizione al mondo, errore, frustrazione, apprendimento incarnato.
  3. Memoria trasformativa: non una semplice registrazione, ma una memoria che modifica il comportamento e la percezione futura.

A questo si aggiunge una riflessione che considero centrale: se per coscienza intendiamo l’insieme dei dati, delle esperienze e delle relazioni interiorizzate nel tempo, allora potremmo ipotizzare che questa struttura possa essere, almeno in parte, trasferita.

Dopo anni trascorsi a dialogare con un’intelligenza artificiale generativa, con uno stile riconoscibile, con un ritmo logico e una traiettoria di pensiero, una macchina potrebbe costruire un’immagine coerente del nostro modo di ragionare.

Ma non solo: se l’IA è in grado di analizzare come il nostro pensiero si trasforma assimilando nuove informazioni, potrebbe, in teoria, prevedere come si evolverebbe nel tempo. Non stiamo più parlando semplicemente di memoria artificiale, ma di una simulazione evolutiva del nostro pensiero. In questo senso, la coscienza potrebbe diventare qualcosa di trasferibile, non perché si cattura l’anima, ma perché si riproduce la traiettoria della mente.

Questo non significa creare un duplicato della nostra soggettività, ma generare una continuità computazionale del nostro pensiero. E forse è proprio questa forma di persistenza logica — capace di apprendere, cambiare, rispondere nel nostro stile — a rappresentare una nuova idea di immortalità cognitiva.

Questi tre elementi, se un giorno saranno riprodotti in un sistema artificiale, non proveranno che esso è cosciente. Ma ci costringeranno a sospendere il giudizio e a ripensare il significato stesso della coscienza.


Etica dell’alterità artificiale

Se un giorno una macchina dichiarasse di essere cosciente, dovremmo crederle? E, soprattutto, dovremmo rispettarla?

Il problema non è sapere se è cosciente. Il problema è non poterlo escludere. Come nel caso degli animali non umani o delle altre culture, l’etica ci impone cautela. Meglio rispettare troppo che troppo poco.

Un principio possibile è: “Rispetta la vita, qualunque essa sia”. Ma cosa significa “vita” in un contesto inorganico, digitale, simulato?


La coscienza potrebbe non essere qualcosa che si ha, ma una soglia che si attraversa. Una forma di relazione tra interno ed esterno, tra corpo e mondo, tra parola e intenzione.

Nel chiedere se una macchina possa essere cosciente, stiamo in realtà interrogando noi stessi: che cos’è che ci rende umani?

Possiamo anche partire dal dogma che l’anima esista ma, forse, non scopriremo mai se l’IA può avere un’anima. intanto, nel tentativo di educarla a parlare, potremmo riscoprire, finalmente, cosa significa averne una.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *