Può un’intelligenza artificiale stabilire cosa sia moralmente giusto o sbagliato? OpenAI sostiene di sì, o almeno desidera esplorare questa possibilità. L’organizzazione ha investito nella ricerca finalizzata alla creazione di algoritmi in grado di prevedere i giudizi morali umani. Tale iniziativa, diretta da esperti della Duke University, suscita interrogativi fondamentali sull’interazione delle macchine con concetti astratti e soggettivi, come la moralità.
Un progetto ambizioso sostenuto da OpenAI
OpenAI, rinomata per lo sviluppo di strumenti innovativi come ChatGPT, ha conferito una sovvenzione agli studiosi Walter Sinnott-Armstrong e Jana Borg. Questo team, specializzato in etica pratica, sta lavorando a un progetto denominato «AI Morality», con un budget di un milione di dollari distribuiti in tre anni, come indicato in comunicati ufficiali. L’obiettivo principale è quello di addestrare algoritmi per consentire loro di prevedere i giudizi morali umani all’interno di contesti complessi, come le tensioni nel settore medico, legale e aziendale.
Tuttavia, il gruppo di ricerca ha mantenuto il riserbo sui dettagli della sua attività, probabilmente a causa della delicatezza e delle polemiche suscitate dal tema.
La comprensione della moralità da parte dell’IA
Il concetto di un «GPS morale» per le intelligenze artificiali non è affatto nuovo. Altri progetti hanno tentato di affrontare questa sfida, come Ask Delphi, sviluppato dall’Istituto Allen per l’IA nel 2021. Questo sistema poteva emettere giudizi etici di base — come la condanna dell’inganno in un esame — ma mostrava significative carenze quando venivano presentati dilemmi più complessi o domande formulate in modo diverso.
La causa di questi fallimenti è radicata nella natura stessa dei sistemi di IA. I modelli di apprendimento automatico, come quelli creati da OpenAI, sono fondamentalmente macchine statistiche che analizzano schemi all’interno di ampi set di dati. Di conseguenza, non possiedono una comprensione autentica dei valori umani, delle emozioni o dei principi filosofici fondanti della moralità.
In aggiunta, la cultura e i pregiudizi insiti nei dati utilizzati per addestrare queste IA complicano ulteriormente la questione. Ad esempio, gli algoritmi spesso riflettono i valori predominanti delle culture occidentali, escludendo le prospettive di altre comunità meno rappresentate.
Le sfide nella creazione di uno standard morale universale
La moralità non può essere considerata una scienza esatta; è un concetto plasmato da millenni di dibattiti filosofici e differenze culturali. Mentre alcuni filosofi, come Kant, sostengono principi morali assoluti, altri, come i utilitaristi, privilegiano il massimo beneficio per il maggior numero di persone.
Tradurre questa complessità in un sistema algoritmico presenta problemi evidenti. Un esempio pratico è l’opera precedente di Sinnott-Armstrong, il quale ha sviluppato un sistema per decidere chi dovesse ricevere trapianti di rene. Sebbene l’algoritmo fosse utile come strumento di supporto, esso poneva interrogativi inquietanti riguardo al ruolo della tecnologia nelle decisioni che influenzano la vita umana.
Il percorso giusto da seguire?
Da , sosteniamo che la ricerca in questo settore debba progredire con trasparenza e estrema cautela. La possibilità di consentire a una macchina di influenzare le decisioni morali potrebbe generare enormi vantaggi, come garantire una maggiore equità in ambiti come la sanità pubblica. Tuttavia, ciò solleva anche rischi etici, come la perpetuazione di pregiudizi o la delega irresponsabile di decisioni critiche a sistemi tecnologici.
Inoltre, la subiettività intrinseca alla moralità suggerisce che non esisterà mai un algoritmo perfetto. Anche se le macchine riuscissero a simulare giuridici etici umani, vi sarebbero sempre discussioni riguardanti la veridicità di queste decisioni nei confronti dei valori di una società diversificata.
Il futuro della moralità nell’IA
OpenAI sta intraprendendo un passo audace nell’esplorare questo ambito, ma i risultati potrebbero essere molto lontani dalle aspettative del pubblico. Come in altre innovazioni tecnologiche, la chiave risiederà nell’equilibrio tra innovazione e responsabilità etica.
Le aziende tecnologiche, insieme a studiosi e legislatori, dovranno collaborare per garantire che l’IA non solo sia efficiente, ma anche giusta e rappresentativa della diversità umana. La strada da percorrere è ancora lunga e tortuosa, ma l’importanza di una riflessione profonda e di un’azione concertata non può essere sottovalutata.
La continua evoluzione della tecnologia ci offre sfide e opportunità uniche, e con la giusta circolazione di idee e una solida legislazione, è possibile guidare questo progresso in direzione di un cambiamento positivo.
Marco Stella, è un Blogger Freelance, autore su Maidirelink.it, amante del web e di tutto ciò che lo circonda. Nella vita, è un fotografo ed in rete scrive soprattutto guide e tutorial sul mondo Pc windows, Smartphone, Giochi e curiosità dal web.