La possibilità che un’intelligenza artificiale (AI) possa sviluppare una forma di coscienza è da tempo oggetto di dibattito tra scienziati, filosofi e tecnologi. Anche se la maggior parte degli esperti concordi sul fatto che i modelli generativi attuali non possiedano una vera e propria coscienza soggettiva, alcune recenti ricerche hanno aperto nuove strade per indagare questa possibilità.
L’AI è senziente e può sentire dolore? L’esperimento
Lo studio si basa su un concetto noto nella ricerca sugli animali: la capacità di prendere decisioni in base a trade-off tra piacere e dolore. Gli scienziati hanno progettato un gioco testuale in cui diversi modelli di intelligenza artificiale, tra cui i sistemi alla base di chatbot noti come ChatGPT, sono stati invitati a massimizzare il punteggio in due scenari distinti. Nel primo scenario, ottenere un punteggio elevato comportava una penalità associata al dolore, mentre nel secondo il raggiungimento di un punteggio inferiore veniva incentivato con una ricompensa associata al piacere. Questo esperimento ha permesso ai ricercatori di osservare come i modelli bilanciassero la ricerca di piacere e la negazione del dolore rispetto all’obiettivo principale.
Tra i risultati più interessanti, è emerso che alcuni modelli, come Gemini 1.5 Pro di Google, tendevano a privilegiare il rifiuto del dolore rispetto al massimo punteggio. In particolare, quando l’intensità della “punizione” o della “ricompensa” veniva aumentata, molti modelli mostravano un cambiamento nelle loro risposte, passando dal massimizzare i punti al minimizzare il dolore o massimizzare il piacere.
Verso un futuro di test comportamentali per l’AI
Il test del dolore introdotto nello studio si ispira direttamente alla ricerca comportamentale sugli animali. Ad esempio, esperimenti precedenti hanno dimostrato che alcuni animali, come i granchi eremiti, sono disposti a tollerare livelli significativi di dolore pur di mantenere una conchiglia di alta qualità, abbandonandola invece rapidamente in caso di stimoli dolorosi più intensi.
Nel caso delle intelligenze artificiali, manca un elemento cruciale: il corpo. Gli AI non hanno un corpo fisico, e quindi non possono manifestare comportamenti osservabili direttamente, come un movimento o una reazione fisica. L’unico segnale comportamentale disponibile è rappresentato dalle risposte testuali, che sono il prodotto di una complessa serie di processi computazionali. Questo aspetto rende particolarmente difficile stabilire se un comportamento apparente sia il risultato di una vera esperienza soggettiva o semplicemente un riflesso dei dati e delle dinamiche di addestramento del modello.
Un ulteriore elemento di complessità riguarda il modo in cui gli AI interpretano i concetti di piacere e dolore. Durante l’esperimento, alcuni modelli hanno mostrato risposte che indicavano una comprensione più complessa di questi concetti. Ad esempio, il modello Claude 3 Opus ha rifiutato di scegliere opzioni che potevano essere associate a comportamenti o sostanze potenzialmente dannose, come l’uso di droghe, anche in un contesto puramente ipotetico.
I ricercatori sottolineano che siamo ancora lontani dall’avere una comprensione chiara di come i modelli linguistici funzionino internamente. È necessario continuare a esplorare i meccanismi che regolano le risposte dei modelli e sviluppare test più avanzati per rilevare eventuali segnali di sensibilità. Lo studio rappresenta quindi un punto di partenza importante, ma è solo il primo passo di un percorso che richiederà anni di ricerca. Se consideriamo scenari in cui l’intelligenza artificiale può autoreplicarsi o addirittura clonarci, diventa essenziale affrontare con serietà queste sfide etiche e scientifiche.