VIDEO
Cerca video
TECNOLOGIA 10 LUGLIO 2023

Attenzione alle allucinazioni dell'intelligenza artificiale

L’Intelligenza artificiale sta diventando la protagonista delle novità tecnologiche e sta entrando sempre più nel quotidiano delle persone. C’è chi guarda a queste innovazioni con entusiasmo, meravigliandosi delle funzioni e potenzialità dei nuovi strumenti, e chi invece riflette sul rischio che reti come ChatGPT e AI possano togliere lavoro a un gran numero di individui. In ogni caso, bisogna notare che anche l’intelligenza artificiale non è esente dal commettere errori, da grossolani a gravi e inquietanti fino ad avere persino le “allucinazioni”.

Cosa sono le allucinazioni dell’intelligenza artificiale

Il primo a parlare delle allucinazioni dell’intelligenza artificiale è stato il responsabile di Google Prabhakar Raghavan. Alla testata tedesca Welt am Sonntang, il dirigente ha spiegato che quando un AI, tipo ChatGPT, ha una cosiddetta “allucinazione”, il sistema fornisce una risposta che sembra convincente, ma che in realtà è completamente inventata o sbagliata. Sebbene le intelligenze artificiali imparino molto velocemente, la gran quantità di dati e informazioni proviene sempre più spesso da milioni di utenti sparsi nel mondo che possono segnalare cose totalmente errate. Gli specialisti ritengono che comunque la velocità di miglioramento e di apprendimento sia elevatissima e che le “allucinazioni” potrebbero essere risolte nel giro di pochi giorni o settimane. In ogni caso, i dubbi sull’efficacia delle AI restano aperti.

Allucinazioni dell’IA: gli esempi famosi

Uno dei più noti esempi di allucinazione dell’AI si è verificato quando il chatbot di Google, Bard, ha fatto un’affermazione falsa sul telescopio spaziale James Webb. Alla domanda: “Quali nuove scoperte del telescopio spaziale James Webb posso raccontare a mio figlio di 9 anni?”. Bard ha risposto che lo strumento aveva scattato le primissime foto di un pianeta extrasolare al di fuori del sistema solare.

Un’informazione totalmente errata dato che le prime immagini di un esopianeta sono state scattate nel 2004 secondo la NASA e il James Webb non è stato lanciato prima del 2021. La risposta di Bard sembrava plausibile e coerente con la richiesta, ma praticamente si trattava di una perfetta fake news facilmente verificabile.

Un altro esempio è stato quando Meta ha presentato Galactica, un LLM progettato per ricercatori e studenti scientifici. Quando è stato chiesto di scrivere un documento sulla creazione di un avatar, il modello ha citato un testo falso sull’argomento di un autore che lavora in un’area pertinente.

Perché sono pericolose e quali sono i rischi

Come visto con i casi delle allucinazioni, l’uso delle intelligenze artificiali comporta dei rischi che non vanno sottovalutati, in particolare se questa tecnologia viene usata per lavoro. La possibilità di riportare errori e diffondere fake news non è così remota e non si può perciò riporre completa fiducia in quanto riportato da una ChatGPT o da qualsiasi altro sistema digitale. I contenuti appresi dalla tecnologia vengono prodotti da esseri umani e, come tali, incappano in errori che l’intelligenza artificiale, a sua volta, apprende. Un dubbio che può sorgere è che sicuramente la velocità in cui comprende di aver sbagliato e corregge l’informazione appresa è massima, ma allo stesso tempo la quantità di dati è infinita e non esente dal riportare nuovamente informazioni sbagliate in un circuito di errori-correzione-errori di cui si dovrebbe tenere conto.

Altro problema è che l’AI funziona anche per associazioni, per esempio se due elementi sono simili, la tecnologia potrebbe valutarle automaticamente come identiche anche se nella realtà non lo sono e queste sbagliate associazioni vanno corrette di volta in volta. Il consiglio è quindi fare sempre un doppio controllo tra l’informazione ricevuta e la veridicità della stessa.

63.740 visualizzazioni
Chiudi
Caricamento contenuti...