Su Amazon crescono i libri scritti interamente dall’IA e con essi le relative recensioni false scritte dall’IA. Il problema potrebbe avere una portata maggiore.
Da quando le IA generative come ChatGPT e Dall-E sono state rese disponibili al grande pubblico, molti professionisti hanno espresso il timore che l’IA possa sostituirli. Per il altri il problema ha anche un’altra sfaccettatura, ovvero quello del copyright. Alcuni artisti infatti hanno denunciato l’utilizzo di immagini protette da copyright per addestrare le intelligenze artificiali. Ma potrebbe non finire qui.
Molti stanno sfruttando la capacità di questa tecnologia di generare contenuti su richiesta per guadagnare col minimo sforzo su Amazon, con libri scritti in fretta e furia da un’IA. Al momento, il gigante della vendita online non sta facendo nulla per combattere questo fenomeno.
Mettere in vendita il proprio libro attraverso il programma Kindle Direct Publishing di Amazon è piuttosto semplice, di conseguenza, sempre più libri generati dall’intelligenza artificiale arrivano nella sezione Kindle. Queste opere scritte da ChatGPT attingono a piene mani dalle fonti originali da cui l’IA si è formata e, pertanto, molti scrittori ritengono che costituiscano una violazione del loro copyright.
Oltre a questo, un altro problema è rappresentato dai commenti generati da ChatGPT e simili, che accompagnano questi libri generati dall’intelligenza artificiale e ovviamente falsi.
Al di là della disinformazione che queste recensioni false mantengono, molti giornalisti sottolineano che le opere create da ChatGPT e da altre AI generative siano qualitativamente basse. Il problema è che sono spesso difficili da distinguere da quelle generate da un essere umano, almeno in buona parte dei casi e senza un’analisi (ma insomma, chi è che fa un’analisi del testo prima di acquistare un libro?). E poiché sempre più persone utilizzano il lavoro di altri come materiale di addestramento per le loro IA, che a loro volta vengono utilizzate per creare contenuti, c’è il grande rischio di girare in tondo, con le IA che si copieranno a vicenda per creare contenuti che alla fine potrebbero essere sempre più scadenti.
A pagarne le conseguenze sarà il pubblico, certamente, ma anche chi lavora per generare contenuti unici e di qualità, chi ha delle idee e desidera condividerle. Il Washington Post riporta di Chris Cowell, uno sviluppatore di software, che ha trascorso più di un anno a scrivere un manuale tecnico e che tre settimane prima della sua pubblicazione ha visto comparire su Amazon un libro sullo stesso argomento e con lo stesso titolo. Dopo l’iniziale stupore (per me sarebbe stato uno shock) e facendo delle ricerche, è arrivato a concludere che il libro presente su Amazon era stato generato dall’IA e che non era l’unico pubblicato dallo stesso autore su argomenti simili. Amazon ha poi rimosso questi libri ma il problema resta. Non è l’unico caso. Qualche tempo fa Reuters aveva riportato la storia di Brett Schickler, che sognava di pubblicare un libro e alla fine ha creato un e-book illustrato di 30 pagine per bambini in poche ore, mettendolo in vendita tramite l’auto-riproduzione di Amazon, tutto generato dall’IA.
Sono molti da quanto è emerso i titoli presenti su Amazon scritti dall’intelligenza artificiale, ma non essendovi un obbligo nell’indicare l’uso dell’IA nella stesura di contenuti è impossibile sapere in quanti casi sia stata impiegata la tecnologia. Intendiamoci, l’uso dell’IA nella produzione di contenuti avveniva già prima di ChatGPT ma ora il fenomeno si sta diffondendo talmente tanto e senza una regolamentazione che potrebbe col tempo rappresentare più un problema che un’opportunità. Pensiamo ad esempio anche alla grande quantità di notizie presenti sul web e scritte dall’IA. Come abbiamo riportato in precedenza, ci sono dei siti di notizie che pubblicano esclusivamente articoli scritti dall’A e senza controllo umano. Questo significa che possono contenere notizie vecchie, non corrette o completamente false. Se si innescasse un meccanismo circolare su ciò, potrebbe diventare difficile distinguere la realtà da ciò che realtà non è.