Sembra che sempre più nuove intelligenze artificiali generative stiano facendo la loro comparsa nel nostro quotidiano. ChatGPT rimane in cima alle tendenze, Google Bard continua a essere costantemente aggiornato e Dall-E2 sta registrando nuovi picchi di popolarità nel campo della generazione di immagini, e questo è solo l’inizio. Attualmente, questi strumenti di intelligenza artificiale sono accessibili direttamente nella nostra tasca: basta prendere il nostro smartphone compatto e avremo a disposizione un’ampia gamma di funzionalità offerte dall’intelligenza artificiale.
I docenti si trovano di fronte al dilemma di distinguere un elaborato redatto da un chatbot da un lavoro autentico degli studenti. I professionisti stanno sperimentando i vantaggi dell’intelligenza artificiale, impiegandola per creare e-mail, liste della spesa e articoli analitici, tuttavia, talvolta, i risultati risultano essere discordanti. Qui nasce un dilemma che richiede la consapevolezza di ogni utente di intelligenza artificiale: le cosiddette “allucinazioni”.
Il concetto di “allucinazioni dell’intelligenza artificiale” potrebbe sembrare tratto da un episodio di una serie di fantascienza, ma rappresenta una reale problematica negli algoritmi di intelligenza artificiale, la quale influisce su chiunque si affidi a essi nella vita di tutti i giorni. Ecco quindi ciò che è importante conoscere a riguardo.
Ma quindi che cosa sono le allucinazioni dell’IA?
Le allucinazioni dell’intelligenza artificiale si verificano quando gli algoritmi, in modo erroneo o ingannevole, generano informazioni che non riflettono la realtà. Un chiaro esempio di questo fenomeno è quando ci si rivolge all’intelligenza artificiale con una domanda, come ad esempio il numero di tulipani nel mondo, e si riceve una risposta del tipo: “Ci sono tre tulipani per ogni individuo sulla Terra”. Questo rappresenta un caso di allucinazione.
In questa situazione, la risposta fornita è priva di fondamento, poiché nessuno ha condotto ricerche o elaborato una statistica del genere. L’intelligenza artificiale ha semplicemente generato questa informazione senza alcuna base reale. È comune incontrare dati, numeri e statistiche completamente inventate. Ad esempio, i chatbot potrebbero fornire casi legali inventati in cui gli avvocati commettono errori o presentare studi medici falsi per sostenere determinate teorie.
Nel contesto dell’intelligenza artificiale che opera su immagini, le allucinazioni potrebbero manifestarsi come un’interpretazione distorta del funzionamento delle mani umane o un errore nel riconoscere una tigre come un gatto domestico. Tuttavia, è più frequente riscontrare allucinazioni nell’ambito dell’intelligenza artificiale conversazionale.
Quali sono le ragioni che causano le allucinazioni nell’intelligenza artificiale?
L’attuale generazione di intelligenza artificiale generativa deriva principalmente dai LLM, modelli linguistici di dimensioni considerevoli. Queste macchine si alimentano di dati creati e prelevati direttamente da Internet. Esaminano lingue e immagini reperibili online, scomponendole come pezzi di un puzzle e imparando a formulare frasi che imitano l’espressione umana. Rappresentano il culmine dell’imitazione, richiedendo un lungo processo di addestramento prima di poter comunicare in modo simile a noi. In sintesi, i chatbot sono in grado di conversare nel linguaggio umano, ma ciò non garantisce la veridicità delle loro affermazioni.
I sistemi di intelligenza artificiale conversazionale, come OpenAI ChatGPT, sono progettati per rispondere a varie richieste. Tuttavia, spesso si trovano nella necessità di produrre una risposta, e in questo processo, tra l’imitazione del linguaggio umano e l’estrazione di informazioni da Internet, possono creare risposte apparentemente naturali. I chatbot cercano di emulare il comportamento umano, ma non sempre lo fanno con successo, dando così spazio a potenziali errori. Quando un’intelligenza artificiale comincia ad avere allucinazioni, ciò può essere attribuito a diversi fattori:
- Un addestramento insufficiente o scorretto dell’IA, inclusa l’utilizzo di dati di addestramento di bassa qualità.
- Un “sovra-addestramento” su un argomento troppo specifico, il che può portare l’IA a smarrirsi e produrre informazioni irrilevanti.
- La ripetizione di disinformazione diffusa online, comprese notizie false e dannose.
- La percezione e l’interpretazione da parte dell’IA di pregiudizi ed emozioni umane in modo inopportuno.
Anche le IA intelligenti, utilizzando modelli complessi e affrontando un’enorme quantità di informazioni e opzioni di generazione di contenuti, talvolta possono confondersi su ciò che è reale e ciò che non lo è.
Esistono allucinazioni in tutte le intelligenze artificiali?
È possibile che qualsiasi forma di intelligenza artificiale commetta errori, tuttavia, le allucinazioni rappresentano un problema particolare per le IA generative, le quali sono concepite per fornire risposte a domande specifiche. È importante comprendere che nessuna di queste IA è infallibile. È stato osservato che a volte anche le IA sperimentano allucinazioni. Le IA sviluppate per l’interazione con gli utenti, come te e me, di solito sono dotate di qualche tipo di protezione contro le allucinazioni, ma non esiste un sistema perfetto. Di conseguenza, è possibile che, prima o poi, si verifichino inesattezze nelle informazioni fornite.
Come identificare un’illusione dell’IA?
Ecco la sfida: questi avanzati chatbot e simili IA possono apparire estremamente convincenti. Essi si fidano delle loro illusioni, credendo che siano veritiere come tutto il resto. Questo implica che tu debba attivare il tuo discernimento. Verifica sempre attentamente quando tale intelligenza artificiale ti fornisce informazioni, soprattutto se riguardano numeri, date, personalità o eventi. Fai attenzione se riscontri contraddizioni nelle risposte o se i numeri non coincidono con la tua richiesta.
Non dovresti avere una fiducia cieca nei confronti dei bot che sembrano affidabili: rifletti attentamente prima di tutto. Ci sono stati casi in cui ChatGPT ha confuso personaggi di finzione e altre informazioni false, situazioni che normalmente non potresti incontrare. Quindi, affidati sempre alla verifica dei fatti.
È possibile prevenire le illusioni utilizzando l’intelligenza artificiale? Non è possibile evitare completamente le illusioni dell’IA, ma puoi ridurne il numero e migliorare la qualità delle risposte. Ecco alcuni suggerimenti:
Modifica la “temperatura” dell’IA. Questo parametro regola il grado di imprevedibilità dell’IA e aiuta a evitare errori (anche se può limitare la creatività delle risposte). Evita l’uso di gergo quando fai domande. Formula domande più specifiche, evitando quelle troppo generiche. Arricchisci la tua domanda con informazioni che possano aiutare l’IA a formulare una risposta più precisa. Prova a chiedere all’IA di rispondere come un esperto in un determinato campo, ad esempio come un insegnante o un banchiere (potrebbe sembrare insolito, ma funziona). Comunica all’IA ciò che non vuoi sentire se inizia a fornire dati casuali. Puoi anche chiedere conferme per la verifica.
Le allucinazioni dell’intelligenza artificiale sono pericolose?
Le false percezioni dell’intelligenza artificiale rappresentano un rischio significativo per diverse ragioni. Prima di tutto, possono fornire informazioni errate quando ci si affida alla loro affidabilità. Talvolta ciò può risultare divertente, come nel caso di uno studente che sottopone un tema sull’intelligenza artificiale, accompagnato dalla narrativa di come Abraham Lincoln abbia inventato le auto Lincoln. Tuttavia, può anche provocare fastidi, ad esempio quando l’IA suggerisce una ricetta che richiede l’uso di acido solforico invece di bicarbonato di sodio, o inserisce dati falsi nel curriculum. Nei casi più gravi, ciò potrebbe causare danni significativi alle persone che seguono indicazioni erronee.
A un livello più profondo, le false percezioni dell’intelligenza artificiale possono generare problemi gravi dovuti alla disinformazione. Immaginate di chiedere a un’intelligenza artificiale delle statistiche su argomenti sensibili come l’immigrazione o i vaccini e di ricevere dati completamente inventati. Purtroppo, ci sono stati casi in cui persone hanno combattuto e persino perso la vita a causa di informazioni erronee trovate su Internet. Se le persone credessero alle false percezioni dell’IA, le conseguenze potrebbero essere drammatiche. Pertanto, è fondamentale affrontare con determinazione questo problema.
Quanto alla capacità degli sviluppatori di risolvere le false percezioni dell’IA, è un lavoro in corso. Con l’avvento di GPT-4, un’evoluzione rispetto al precedente GPT-3.5, si osserva un progresso nell’intelligenza artificiale. Gli sviluppatori stanno adoperandosi per implementare una serie di strategie, regolazioni dei parametri e contromisure per evitare che l’IA cada nelle false percezioni. Questo può richiedere ulteriori sessioni di addestramento, riconfigurazioni o una maggiore allocazione di risorse informatiche, il che inevitabilmente comporta costi aggiuntivi. Tuttavia, nell’ottica di un futuro ideale, ci si auspica che l’intelligenza artificiale diventi sempre più sofisticata e che le false percezioni diventino sempre più rare.
Marco Stella, è un Blogger Freelance, autore su Maidirelink.it, amante del web e di tutto ciò che lo circonda. Nella vita, è un fotografo ed in rete scrive soprattutto guide e tutorial sul mondo Pc windows, Smartphone, Giochi e curiosità dal web.