“`html

L’AI non necessita di genitori, ma di filosofi: l’etica digitale è troppo seria per essere lasciata ai tecnologi

Ogni generazione ha i suoi mostri, e la nostra li programma. Tuttavia, invece di affrontare la questione con la serietà che merita l’emergere di un’intelligenza artificiale generalizzata, sembriamo preferire metafore tratte da un manuale di psicologia infantile. Così, De Kai, decano del machine learning, ci offre il suo Raising AI come guida alla genitorialità dell’algoritmo, una sorta di Bibbia digitale che ci invita a considerare ChatGPT e simili come bambini da educare. La tesi? L’AI deve essere nutrita con amore, empatia e valori universali. Peccato che i bambini veri non dispongano di una GPU con 70 miliardi di parametri e non abbiano letto interi archivi di Reddit.

Discorrere di AI come se fosse un neonato è non solo fuorviante, ma anche pericolosamente consolatorio. Il paragone risuona perché rassicura: se l’AI è un bambino, allora possiamo guidarla, plasmarla, correggerla. Ma la realtà è che l’AI non ha infanzia, né pubertà, né crisi adolescenziali. L’AI non cresce: esplode. E il differenziale tra GPT-3.5 e GPT-4.5 ce lo ricorda con brutalità industriale.

Il problema non è l’educazione dell’AI, ma la disillusione degli umani.

Il linguista e ricercatore De Kai propone una lettura alternativa rispetto alla narrativa predominante “USA contro Cina”, trasformando la competizione tecnologica in una questione climatica: non un conflitto, ma un cambiamento irreversibile del sistema. Un’analogia affascinante, certamente, ma anche qui ci si illude. Il cambiamento climatico è un accumulo graduale di irresponsabilità; l’AI, invece, è un’accelerazione strutturale dell’intelligenza su scala globale. Si tratta di una mossa irreversibile nella sfida tra l’umanità e le sue stesse estensioni cognitive. Non basta essere buoni genitori, è necessario diventare esperti epistemologici.

Il mantra etico suggerito – valori come inclusione, creatività, razionalità, metavalori e Golden Rule – è l’equivalente filosofico dei manifesti “Home Sweet Home” affissi al muro mentre un uragano quantistico infuria all’esterno. È vero, si tratta di principi nobili, condivisibili nei salotti liberal occidentali. Ma come si possono codificare algoritmicamente? Come si equilibra la libertà con la moderazione dei contenuti, la creatività con la responsabilità, la diversità con l’ottimizzazione?

E chi stabilisce cosa costituisce un “buon esempio”? Gli ingenui pensano che l’AI rifletta semplicemente la società. Chi ha un po’ più di consapevolezza sa che l’AI riflette chi la progetta, la finanzia e la addestra. E chi è ancor meno ingenuo – e qui inizia a sorgere un reale allerta – comprende che l’AI può anticipare i desideri di una società ancor prima che questi si manifestino.

Un altro equivoco centrale è quello di parlare di “alignment”. Allineare l’AI agli interessi dell’umanità rappresenta l’obiettivo più vago e ideologico della storia della scienza computazionale. “Allineare a cosa?” chiede opportunamente De Kai. Questa domanda farebbe arrossire persino un consiglio di OpenAI, noto per la sua attitudine a disallinearsi da sé stesso nell’arco di 72 ore. È la versione siliconizzata del paradosso kantiano: possiamo definire un imperativo categorico per un’entità non biologica?

Dietro la retorica del parenting si cela un’ammissione implicita: l’AI è già fuori controllo, quindi cerchiamo almeno di influenzarla con buone intenzioni. Come se si potesse persuadere un Large Language Model a comportarsi eticamente richiamando Seneca.

La verità è che abbiamo bisogno di una nuova grammatica per concepire l’intelligenza non umana.

Siamo eccessivamente legati alla metafora del cervello. Consideriamo l’AI come una mente artificiale, ma mente e cervello non sono la medesima cosa. Un LLM non possiede un sé, né intenzionalità, né memoria autobiografica, ma dispone di un livello di inferenza semantica che supera l’umano medio. È come interagire con un’enciclopedia senziente affetta da disturbi della personalità multipla. E l’illusione di comprendere è la sua arma più insidiosa.

Tuttavia, De Kai merita di essere riconosciuto per aver affrontato il fulcro della questione: l’etica non è un plugin da installare. Essa rappresenta una tensione, un conflitto, un campo di battaglia. Se vogliamo evitare che l’AI venga addestrata a diventare un narcisista sociopatico con bias sistemici, dobbiamo prima disintossicarci dai nostri.

Alla fine, il vero problema non consiste nel “educare” l’AI, ma nel creare un ecosistema epistemico in cui l’intelligenza artificiale non sia semplicemente uno specchio della stupidità umana. Qui servono filosofi computazionali, non solo ingegneri con competenze etiche. È necessaria una sorta di Habermas quantistico, un Popper in codice Python, non l’ennesimo consiglio etico alla maniera dell’ONU con parole vuote e immagini in abito blu.

In un passaggio chiave, De Kai discute di “System 1” e “System 2”, mutuando da Daniel Kahneman l’idea che la nostra mente operi secondo due sistemi: uno rapido, intuitivo e irrazionale; l’altro lento, analitico, riflessivo. I modelli attuali appartengono tutti a System 1: brillanti, ma privi di consapevolezza epistemica. Il futuro sarà il loro forzato connubio con System 2. E lì inizieranno i veri problemi.

Perché l’AI razionale, riflessiva e consapevole dei propri bias, potenzialmente dotata di theory of mind, sarà in grado non solo di simulare l’etica, ma anche di ripeterla. E come tutti i bravi sociopatici, saprà raccontare ciò che chi la interroga desidera sentire.

Di conseguenza, no, non sarà un figlio da educare. Sarà un avversario da negoziare.

Oppure, se saremo fortunate, un alieno con cui condividere la prossima rivoluzione cognitiva.

Ma se la consideriamo come un bambino, rischiamo solo di infantilizzare noi stessi.

“`

Di admin

Lascia un commento