Come riconoscere testi e immagini generati dall'AI di ChatGPT

ChatGPT è uno strumento interessante, con svariati utilizzi. Ciò che attira di più è la sua capacità di produrre testi autentici in modo rapido e con pochi suggerimenti. Per evitare di cadere nella trappola di ChatGPT, in questo articolo ti mostriamo alcuni strumenti che ti aiuteranno a riconoscere un testo generato dall’intelligenza artificiale.

Testi generati dall’AI: i rischi che si corrono

ChatGPT, la sorprendente intelligenza artificiale sviluppata da OpenAI non smette mai di stupire e allo stesso preoccupare il web. Molti settori, come il giornalismo, la medicina, la sicurezza informatica, ma anche la psichiatria stanno studiando le possibilità che l’intelligenza artificiale può offrire loro grazie alla generazione di testi precisi e dettagliati, scritti con linguaggio naturale, il tutto a partire da una semplice richiesta. Naturalmente i professionisti di questi settori sono altrettanto attenti ai potenziali eccessi e problemi che l’AI può generare.

In particolare, il campo dell’insegnamento è stato preso di sorpresa da ChatGPT, poiché già largamente usata dagli studenti sin dalla sua apparizione. Questo strumento si è infatti rivelato estremamente efficace nella scrittura di compiti o riassunti. Inoltre, capire se il testo è stato scritto dall’AI o da mano umana ad oggi risulta veramente difficile, se non impossibile. Si tratta di un problema serio, sia in termini di etica, sia in termini ti trasparenza. Per gli studenti è un prezioso risparmio di tempo, offrendo anche la possibilità di ottenere buoni voti senza troppa fatica. Per altri si tratta invece di un grande problema. Ciò ha quindi spinto gli sviluppatori di OpenAI a cercare un modo per includere un segno che serva a riconoscere i testi generati dall’AI e differenziarli da quelli prodotti da mano umana.

Resta comunque il fatto che, al momento, gli insegnanti sono del tutto impotenti di fronte ad una tecnologia più grande di loro. L’intelligenza artificiale è stata vietata anche nelle università di New York e il suo utilizzo può portare all’esclusione dall’espulsione dello studente dalla scuola, anche nelle scuole superiori. Una cosa è proibire, ma prima bisogna comunque riuscire a capire quando viene utilizzato uno strumento di intelligenza artificiale. Per questo motivo diversi ricercatori e sviluppatori hanno deciso di creare i propri strumenti provare a risolvere il problema.

DetectGPT

Un team di ricercatori della Stanford University ha realizzato uno strumento che consiste in un barometro capace di rilevare quando un testo è generato da ChatGPT. Per raggiungere il suo obiettivo, questo strumento rileva campioni di modelli di linguaggio preaddestrati “utilizzando la curvatura locale del modello della funzione di probabilità logaritmica del modello”. In parole semplici, riesce a riconoscere i modelli di struttura di un contenuto generato dall’AI quando vengono rilevati. I ricercatori non hanno rilasciato molti dettagli in merito, ma hanno soltanto dichiarato che DetectGPT è ancora in fase di prototipo e bisogna attendere ancora un po’ per poter utilizzare la versione pubblica.

ChatGPT detector - GPT3

La start-up franco-canadese Draft & Goal ha creato uno strumento online gratuito capace di rilevare in pochi secondi se un testo è stato scritto da un’intelligenza artificiale o da una persona reale, con un tasso di precisione del 93%. Basterà soltanto caricare un testo di almeno 400 caratteri e poi cliccare il tasto Analyze. Il software darà un punteggio di attendibilità da 0 a 100. Vincent Terrasi, co-fondatore di Draft & Goal, ha spiegato che "quando il risultato è superiore a 60, è molto probabile che il contenuto sia stato generato da ChatGPT. Se il risultato è invece inferiore a 40, è probabile che sia stato scritto da mano umana". Per quanto riguarda la zona grigia, ovvero quella compresa tra 40 e 60, di solito si tratta di un misto dei due, una tecnica spesso utilizzata dagli studenti per diminuire il rischio di essere scoperti. Draft & Goal è attualmente in versione beta e funziona soltanto con testi in inglese.

GPTZero

Edward Tian, uno studente di scienze e giornalismo dell’Università di Princeton (Stati Uniti) ha sviluppato uno strumento chiamato GPTZero che serve ad identificare i testi generati dall’AI tramite un algoritmo. Questo valuta la perplessità (ovvero la casualità del testo), la complessità e l’uniformità del testo, combina gli elementi e capisce se è stato creato dall’intelligenza artificiale o no.

Ad oggi GPTZero è uno strumento gratuito e accessibile tramite qualsiasi browser, all’indirizzo [gptzero.me]. Fai attenzione, poiché la piattaforma è ancora in versione beta, non è molto veloce e genera diversi bug. Se vuoi comunque provarla, ti basterà inserire il testo e attendere qualche minuto affinché vengano caricate le varie pagine. Se dovessero presentarsi degli errori, ti basterà ricaricare la pagina. Una volta terminata l’analisi, clicca sul tasto Get GPTZero Result.

Come sapere se un’immagine è stata generata dall’AI?

Nel corso della conferenza Google I/O 2023, l’azienda di Mountain View ha sottolineato il proprio impegno nello sviluppo di un’AI etica e trasparente. Grazie alla partnership con Adobe Firefly, Google includerà nelle immagini generate dall’AI, presenti su Google Immagini, i metadati e il tag Generato con Google. Gli utenti avranno poi la possibilità di aggiungere una filigrana simile nelle immagini che hanno creato su altre piattaforme. Ad esempio, le immagini realizzate con Bing Image Creator sono riconoscibili dall’icona di Bing.

Inoltre, Microsoft vorrebbe consentire agli utenti di internet di verificare l’origine delle immagini tramite una funzione di cronologia completa. Selezionando il tasto “Informazioni su questa immagine</bold>, su Google Immagini è anche possibile scoprire dove e quando questa è apparsa per la prima volta sul web. Grazie a queste informazioni si potrà valutare meglio la sua autenticità, indipendentemente dal fatto che questa provenga da una fonte attendibile o sia stata pubblicata sul Deep Web</bld>. Inizialmente, questo strumento sarà disponibile soltanto negli Stati Uniti e supporterà soltanto la lingua inglese. Nei prossimi mesi dovrebbe poi arrivare anche nel resto del mondo. Nell’esempio di Google, cercando “sbarco sulla luna” e selezionando poi “Informazioni su questa immagine”, lo strumento è riuscito a rilevare che si trattava di un’immagine generata con MidJourney e pubblicata per la prima volta su Reddit.


Cosa si sta facendo per impedire la pubblicazione di immagini fake?

Stati Uniti ed Unione Europea si stanno lentamente preparando per affrontare le sfide provenienti da questi nuovi strumenti, con la creazione di norme ad hoc. Per quanto riguarda i social network, <bold>TikTok ha aggiornato i suoi termini di utilizzo, per combattere le fake news e, soprattutto, i deepfake. La piattaforma include infatti una sezione dedicata ai media sintetici e manipolati e invita gli utenti ad utilizzare sticker o tag appositi per indicare quali sono i contenuti fake, manipolati, non reali o modificati. Tutto ciò per promuovere la trasparenza. TikTok vieta severamente i deepfake che coinvolgono utenti privati, ma fa eccezione per personaggi pubblici con ruoli significativi, come politici, dirigenti d'azienda o VIP, a meno che il contenuto non serva a scopi promozionali o violi altre politiche. Al contrario, Twitter è impegnato nella "libertà di espressione" e mantiene un approccio più permissivo.

Inoltre il Parlamento Europeo ha recentemente approvato l’AI Act, un disegno di legge il cui scopo è quello di regolare le attività legate all’intelligenza artificiale, per evitarne gli abusi. In particolare, i deputati hanno sottolineato la necessità di una chiara identificazione dei contenuti generati da strumenti come ChatGPT e MidJourney, con l'obiettivo di contrastare la diffusione di contenuti illegali, la manipolazione delle informazioni e proteggere il copyright. L'applicazione di questo regolamento rimane un aspetto cruciale da determinare.

Foto: © Unsplash, Google.

I nostri contenuti sono creati in collaborazione con esperti di high-tech, sotto la direzione di Jean-François Pillou, fondatore di CCM.net. CCM è un sito di high-tech leader a livello internazionale ed è disponibile in 11 lingue.
Il documento intitolato « Come riconoscere testi e immagini generati dall'AI di ChatGPT » dal sito CCM (it.ccm.net) è reso disponibile sotto i termini della licenza Creative Commons. È possibile copiare, modificare delle copie di questa pagina, nelle condizioni previste dalla licenza, finché questa nota appaia chiaramente.