Il 4 agosto, è stato pubblicato un articolo dal Wall Street Journal riguardante l’ultima innovazione di OpenAI: un sistema di watermarking e uno strumento per individuare i testi generati tramite ChatGPT. Questo sistema, sviluppato e pronto per l’implementazione da oltre un anno, ha suscitato un acceso dibattito all’interno dell’azienda stessa. Da un lato, ci sono coloro che sostengono energicamente che l’introduzione di watermark sui contenuti generati da ChatGPT rappresenterebbe un progresso significativo.
Questo strumento potrebbe essere cruciale nel contrastare la diffusione di contenuti plagiati o fraudolenti, come lavori scolastici o articoli di ricerca falsamente attribuiti. Inoltre, semplificherebbe notevolmente il compito di individuare e monitorare l’uso improprio di articoli generati da intelligenza artificiale, contribuendo a mantenere l’integrità e l’originalità nelle produzioni online. Dall’altro lato, vi è una corrente di pensiero preoccupata per le possibili conseguenze negative di questa implementazione.
Alcuni esperti temono che l’introduzione di watermark potrebbe scoraggiare l’uso diffuso di ChatGPT, riducendo significativamente la sua utilità e adozione da parte degli utenti. Un sondaggio recente, condotto dal Wall Street Journal, ha rivelato che circa il 30% degli intervistati potrebbe ridurre l’utilizzo di ChatGPT se fossero introdotti watermark sui testi generati. Questo dibattito riflette una profonda divisione all’interno di OpenAI riguardo alle implicazioni etiche, pratiche e commerciali di questa nuova tecnologia.
Mentre da una parte si cerca di proteggere l’originalità e la proprietà intellettuale, dall’altra si cerca di bilanciare queste preoccupazioni con la necessità di mantenere la flessibilità e l’accessibilità degli strumenti di intelligenza artificiale come ChatGPT. In definitiva, la decisione di implementare o meno questi watermark non è solo una questione tecnologica, ma anche una decisione strategica che potrebbe plasmare il futuro stesso di ChatGPT nel panorama dell’intelligenza artificiale e dell’innovazione digitale.
OpenAI racconta la sua versione della storia: ci stanno lavorando
Poche ore dopo la pubblicazione dell’articolo sul Journal, OpenAI ha aggiornato un articolo precedente datato maggio con nuove informazioni che trattano lo stesso argomento. Secondo quanto riportato, attualmente l’attenzione è focalizzata sullo sviluppo di sistemi per il rilevamento dei contenuti audiovisivi.
Tuttavia, è stato confermato che da tempo lavorano anche su un sistema per identificare l’origine dell’intelligenza artificiale nei loro testi. Questo sistema sarebbe concepito con due potenziali varianti: una delle quali prevede l’utilizzo di filigrane, come riportato dal Wall Street Journal. Secondo le loro verifiche, l’applicazione di filigrane si dimostra efficace contro tecniche come la parafrasi. Tuttavia, non risulta altrettanto efficace contro tecniche più sofisticate, come l’uso di un’altra intelligenza artificiale per la sostituzione delle parole nel testo, o l’impiego di traduttori.
Pare che OpenAI non sia completamente convinta riguardo alla questione dei watermark, poiché teme che possa “stigmatizzare” coloro che non sono madrelingua e utilizzano ChatGPT per produrre testi in inglese, considerandolo un potenziale falso positivo. Secondo quanto affermato da OpenAI, questa situazione potrebbe avere “un impatto potenzialmente sproporzionato”.
Attualmente, il sistema ritenuto più promettente consiste nell’utilizzo dei metadati per riconoscere i testi generati dall’intelligenza artificiale. OpenAI guarda a questo approccio con favore, poiché i metadati sono crittograficamente firmati, eliminando la possibilità di errori nell’identificazione.
OpenAI sottolinea inoltre che per identificare efficacemente i testi generati dall’intelligenza artificiale su Internet, è necessario un impegno collettivo da parte del settore. Questo significa che piattaforme come i social network, i siti web, i giornali e altri intermediari devono essere disposti a fornire questi metadati, aumentando così la trasparenza sull’origine dei contenuti online che consumiamo.
Con l’avanzare della tecnologia, i modelli di generazione di testi diventano sempre più difficili da distinguere a occhio nudo. Tuttavia, strumenti come GPTZero sono già disponibili per aiutare a individuare i testi creati tramite applicazioni come ChatGPT. Chiaramente, sarebbe auspicabile che si sviluppasse uno standard nel settore per facilitare il riconoscimento di questi contenuti.