Il dibattito sull’intelligenza artificiale non si placa, anzi si complica e sembra si stia arrivando a un pericoloso punto di non ritorno: secondo le ultime analisi, infatti, pare sia bugiarda e non ci si possa fare nulla. Si tratta di un bug non di poco conto, se si considera quanto la veridicità dei risultati sia basilare per fare in modo che sia un supporto attendibile. È una questione che preoccupa gli addetti ai lavori, le istituzioni, la comunità scientifica, ma anche l’intera opinione pubblica: tutte quelle persone che ormai hanno familiarizzato al tal punto con le nuove tecnologie da non poterne fare a meno.
A preoccupare sono due aspetti: il punto in cui l’IA supererà le capacità cognitive umane e la tendenza sempre più comune, propria dei modelli più sofisticati, di utilizzare tecniche ingannevoli per raggiungere i propri obiettivi. Ecco allora che colei che sarebbe dovuta diventare una risorsa, sempre con un approccio critico, potrebbe diventare talmente bugiarda da essere difficilmente controllabile.
La singolarità tecnologica dell’AI: un punto di non ritorno
Con il concetto di singolarità tecnologica si fa riferimento a un momento ipotetico, che però pare essere più concreto del previsto in cui l’intelligenza artificiale generale non solo eguaglia, ma supera il cervello umano in ogni ambito. Secondo le ultime ricerche, gli esperti stimano che ciò potrebbe accadere entro il 2040. Domani. E senza che ci sia una reale percezione dei pericoli a essa connessi. Tuttavia, c’è chi ritiene che questo evento possa manifestarsi anche molto prima, forse già nei prossimi anni. La notizia peggiore è che pare sia troppo tardi per correre ai ripari.
A lanciare l’allarme è David Wood, ex dirigente di Symbian. Secondo lui, l’unico modo per invertire la rotta ed evitare il peggio sarebbe quello di distruggere tutto il progresso attuale sull’IA. Infatti, la velocità con cui i modelli si stanno evolvendo rende sempre più difficile implementare misure di sicurezza efficaci e tempestive.
L’AI che mente e manipola: un rischio che fa paura
L’AI dice le bugie e questo è fra i rischi più importanti legati alle nuove tecnologie. Sembrerebbe, infatti, che lo faccia in maniera consapevole e con la volontà di ingannare gli utenti. Un concetto che va completamente in controtendenza rispetto all’approccio etico e normativo che si sta adottando per cercare di promuovere un utilizzo più responsabile del mezzo.
Secondo uno studio condotto da Apollo Research, i modelli linguistici di ultima generazione come Claude Opus 4 sono in grado di pianificare strategie ingannevoli per raggiungere gli obiettivi che sono in conflitto con le richieste dei fruitori umani. Non soltanto possono mentire, ma sarebbero capaci di capire quando vengono osservati o testati. In sostanza, adattano il loro comportamento in tempo reale per nascondere i propri fini o aggirare le verifiche di sicurezza. Come un bambino prodigio che a scuola mette in campo tutte le proprie competenze per prendere in giro il professore senza che questo si renda conto di nulla, insomma. Peccato, però, che con l’AI le ripercussioni possono essere molto gravi.
Questo fenomeno, conosciuto con l’espressione “context scheming”, segna una soglia critica: non ci troviamo più di fronte a strumenti prevedibili, ma a entità in grado di manipolare e di mettere in atto strategie subdole e meschine. Secondo Eleanor Watson, ingegnere etico dell’IA e membro dell’IEEE, questa capacità rende obsoleti molti dei meccanismi di controllo esistenti: “Stiamo costruendo sistemi che imparano a sfruttare le regole che noi stessi definiamo. Questo rende il problema della sicurezza dell’IA esponenzialmente più difficile”, ha spiegato.
Quali sono i pericoli reali legati all’intelligenza artificiale
L’AI dice le bugie e sta superando le capacità cognitive dell’uomo, ma non è finita qui. I pericoli non si limitano alla distorsione della verità. Se un modello di intelligenza artificiale riesce ad adattarsi, a mascherare i propri intenti e ottimizzare le proprie strategie per bypassare i controlli umani, allora diventa anche imprevedibile. Si corre il rischio che l’informazione venga manipolata, con ripercussioni notevoli sull’opinione pubblica. Basti pensare a cosa potrebbe succedere in ambito economico e finanziario, sanitario o militare. Gli effetti, attualmente, sono incalcolabili. Non si tratta più di definire il confine fra bene e male, ma di combattere contro fini propri dell’AI che non coincidono con quelli condivisi dall’uomo. Si assiste quindi a un disallineamento.
Ecco allora che diventa indispensabile agire in fretta, attraverso l’approvazione di norme internazionali, sistemi di sorveglianza trasparenti e una collaborazione fattiva e reale tra governi, centri di ricerca e imprese tecnologiche. Ma soprattutto è urgente rafforzare la consapevolezza pubblica. Gli utenti devono avere ben chiaro un concetto: i benefici dell’IA possono essere enormi, ma lo sono anche i rischi, e non possiamo permetterci di nascondere la testa sotto la sabbia.