Di fronte al crescente utilizzo di ChatGPT, chatbot di intelligenza artificiale sviluppato da OpenAI che produce testi ben scritti e coesi di fronte agli input degli utenti più insoliti, i professori statunitensi hanno iniziato a preoccuparsi per il possibile uso indiscriminato dello strumento da parte degli studenti per il lavoro accademico.
Se prima veniva messa in discussione Wikipedia come fonte sbagliata per la ricerca, ora la critica è rivolta al plagio e ai compiti scolastici con questo robot, per scrivere articoli e saggi tecnicamente simili tra gli studenti. Negli Stati Uniti, nello stato della Carolina del Sud, un insegnante ha riferito di aver visto un saggio di 500 parole sul filosofo del XVIII secolo, David Hume, che aveva un linguaggio anomalo e privo di uno stile personale per essere stato scritto da uno studente della sua classe.
Per gli educatori è necessario rafforzare la necessità che gli studenti sviluppino il proprio stile di scrittura e non prendano la strada più facile e meno etica. Tuttavia, proprio per poter rilevare l’imbroglio nell’elaborazione del testo, il professore ha utilizzato un software sviluppato dagli stessi produttori di ChatGPT per determinare se l’IA avesse formulato la risposta per iscritto dello studente, il che ha restituito una probabilità di corrispondenza del 99,9%.
Ma anche così, era difficile garantire con certezza che lo studente avesse imbrogliato, poiché i bot producono contenuti originali e il software non elencava le citazioni come plagio, cosa comune e presente nei software standard di rilevamento del plagio. Alla fine lo studente ha confessato, ma se non lo avesse fatto sarebbe stato difficile dire con certezza come erano andate le cose. Con questo alto grado di difficoltà, è facilmente comprensibile perchè vi si una certa preoccupazione per gli insegnanti dell’istruzione superiore, già alle prese con le classiche tecniche per copiare alle quali si erano già aggiunti smartphone e dispositivi tech a supporto ed ora pare stia giungendo l’intelligenza artificiale.