Ho divorato il libro che Alfio Ferrara dedica alla cosiddetta «intelligenza artificiale generativa» ('Le macchine del linguaggio. L'uomo allo specchio dell'intelligenza artificiale', Torino, Einaudi, 2025; oggi ottimamente recensito da Giuseppe Antonelli per La Lettura - Corriere della Sera). Con magistrale chiarezza, Ferrara rende giustizia di tutta la pubblicistica corrente, della quale siamo sempre più stanchi, fondata sull’idea che ci troviamo oggi al cospetto di macchine capaci di pensare. In particolare, Ferrara evidenzia le profonde differenze fra i processi che gli esseri umani attuano nell’uso del linguaggio e i calcoli che sono alla base dei grandi modelli linguistici come GPT e Gemini.
Restano almeno un paio di riflessioni, suggerite dalla situazione nuova in cui gli LLM ci proiettano. La prima riguarda la posizione del linguaggio nella nostra esperienza del mondo. Mentre la macchina produce espressioni linguistiche in assenza di una capacità percettiva e senziente, il linguaggio umano coinvolge – sul piano della fenomenologia – il nostro corpo (e questo è ciò che i filosofi del postumano si ostinano a non capire). Al punto che la famosa conclusione di Ludwig Wittgenstein, secondo la quale «i limiti del mio linguaggio sono i limiti del mio mondo» potrebbe essere anche rovesciata: è vero che la comprensione e la percezione del mondo dell’essere umano sono vincolate dal linguaggio che l'essere umano stesso utilizza per descriverlo; ma è altresì vero che i nostri atti linguistici sono sempre «incarnati», ovvero risultano dall’interazione di un corpo biologico con l’ambiente. In termini non troppo metaforici, l’essere umano «parla come mangia» e non potrebbe fare altrimenti.
L’altra questione è di ordine etico (senza un ancoraggio all’etica, il linguaggio non mi interessa). Oggi atto linguistico, anche quello più innocente, si riflette su coloro che lo ricevono (cioè, lo leggono/ascoltano). Ognuno di noi è responsabile di ciò che scrive/dice, perché c’è sempre qualcun altro. C’è l’Altro, e il linguaggio ne è una presa d’atto, più o meno responsabile. In che misura siamo disponibili a delegare questa responsabilità linguistica? In che misura, alienandoci da tale responsabilità, svuotiamo di peso il pensiero stesso? Non so se quella dell’intelligenza artificiale si possa definire una «provocazione di senso planetaria», come sostiene Cosimo Accoto. La questione sul senso resta quella di sempre, sintetizzabile nella domanda che si/ci poneva Martin Heidegger: che cosa significa pensare? Per Immanuel Kant, pensare significa giudicare: qualcosa che, ancora una volta, implica la capacità di intuire con i sensi ciò a cui applicare concetti (molto più del machine learning!) Per Heidegger, «ciò che è da pensare» è – semplicemente – l’essere. Secondo il filosofo tedesco, l’essere ci chiama, vuole da noi che siamo i suoi custodi. E il compito del pensiero, lo specifico dell'umano – in senso etico – consiste nel rispondere a questa chiamata.