OpenAI ha rilasciato uno strumento al fine di aiutare ad identificare i testi generati dall’IA ma non è affidabile.
OpenAI ha iniziato a sviluppare uno strumento per aiutare a identificare quali testi sono stati generati dall’intelligenza artificiale, come il suo chatbot ChatGPT. Questo probabilmente a causa di tutte le critiche e le perplessità che il suo strumento ha sollevato negli ultimi tempi, fra gli insegnati che sono preoccupati per i loro studenti, le scuole che ne vietano l’uso e le ovvie speculazioni che ne derivano.
ChatGPT è stato bersaglio di scuole e università, ma anche gli artisti hanno intentato cause contro il suo metodo. Tuttavia, lo strumento offerto dall’azienda non ha dato risultati eccezionali e del resto la stessa azienda ammette che si tratta di uno strumento al momento imperfetto.
La risorsa tende a identificare con precisione solo il 26% dei testi scritti dall’IA (quindi, il 74% di essi restituisce un falso negativo), mentre il 9% di quelli creati da esseri umani viene trattato come se fosse stato compilato dall’intelligenza artificiale. Questi risultati sono stati resi noti dalla stessa OpenAI.
La precisione diminuisce ulteriormente quando il testo è inferiore a 1.000 caratteri e migliora con l’aumentare della lunghezza dei testi. Pertanto, lo scenario per coloro che condannano l’intelligenza artificiale è di pessimismo e contrarietà.
In ogni caso, si tratta di un primo passo verso la mediazione tra questa tecnologia e la produzione originale negli ambienti accademici. OpenAI indica che lo strumento che ha costruito per l’identificazione non è l’unico utilizzato da chi vuole riconoscere l’autenticità di un’opera.
Del resto sono già diversi gli strumenti rilasciati a questo scopo. Ricordiamo infatti che uno studente di informatica e giornalismo ha trascorso il Capodanno a creare GPTZero, mentre di recente un team di ricercatori di Stanford ha proposto DetectGPT. E siamo certi che, come alcuni stanno lavorando per creare il loro chatbot, altri lavoreranno per creare la loro controparte.