ChatGPT

ChatGPT

di Massimo Angelini -

Le parole rendono pensabile ciò che esprimono, in qualche modo modificano la realtà e, addirittura, possono contribuire a generarla. Dire qualcosa è già farla esistere nella forma in cui è stata detta: in questo aspetto (non in questioni di carattere morale o estetico) leggo il peso delle bugie, delle false notizie, delle distorsioni del linguaggio.

Nel dibattito sull’intelligenza artificiale, in particolare su ChatGPT, sto incontrando parole che accreditano a un programma o a un algoritmo attributi umani che in nessun modo li possono riguardare, col risultato di umanizzare ciò che umano non è, rendere vivo ciò che vivo non è.

Le macchine, i sistemi, i programmi, gli algoritmi possono registrare, conservare, calcolare, riconoscere, rispondere (automaticamente) a una sollecitazione, simulare, comporre dati, restituirli: possono eseguire comandi; non possono imparare, ricordare, pensare, capire, comprendere, comunicare, entrare in relazione… Funzionano per accumulo di dati e procedure prodotte o autoprodotte (ma anche l’autoproduzione delle procedure è programmata), l’apparente capacità di scelta è orientata dalla probabilità e dalla statistica. Dunque le frasi come “l’algoritmo impara”, “il programma capisce”, “Il sistema comunica” ecc. sono improprie, generano una realtà distorta. La stessa parola “intelligenza”, riducendo l’intelligenza alla computazione, viene usata ambiguamente e in modo riduttivo.

Rischiamo di umanizzare le macchine, come gli animali, le piante, come per secoli abbiamo umanizzato dio. Con le parole sbagliate ci abituiamo a pensare le macchine simili a noi e così contribuiamo a distorcere la realtà. E distorcendo la realtà, riducendola ai soli dati computabili, potremmo finire per accettare di pensare noi come macchine. Che è peggio.