Meta sta mettendo BlenderBot 3, il suo chatbot AI sul web per consentire al pubblico di parlare con il sistema per raccogliere feedback sulle sue capacità.
A più di mezzo decennio di distanza dalla monumentale debacle di Taye di Microsoft, l’incidente ricorda ancora quanto velocemente un’intelligenza artificiale possa essere corrotta dopo l’esposizione alla potente tossicità di Internet e mette in guardia contro la costruzione di bot privi di legami comportamentali sufficientemente solidi. Oggi venerdì 5 agosto la divisione AI Research di Meta verificherà se la sua ultima iterazione dell’intelligenza artificiale Blenderbot è in grado di resistere agli orrori di Internet con il rilascio di una demo pubblica del Blenderbot 3, con 175 miliardi di parametri.
Uno dei principali ostacoli che la tecnologia dei chatbot (così come gli algoritmi di elaborazione del linguaggio naturale che li guidano) deve affrontare è quello dell’approvvigionamento. Tradizionalmente, i chatbot vengono addestrati in ambienti altamente selezionati, ma questo finisce per limitare gli argomenti che possono essere trattati a quelli specifici disponibili in laboratorio. Al contrario, il chatbot può attingere informazioni da Internet per avere accesso a un’ampia gamma di argomenti, ma potrebbe e probabilmente lo farà, diventare qualcos’altro a tutti gli effetti.
“I ricercatori non sono in grado di prevedere o simulare ogni scenario conversazionale in ambienti di ricerca”, hanno scritto i ricercatori di Meta AI in un post sul blog. “Il campo dell’IA è ancora lontano da sistemi di IA veramente intelligenti, in grado di comprendere, coinvolgere e chattare con noi come fanno gli altri esseri umani. Per costruire modelli più adattabili agli ambienti del mondo reale, i chatbot devono imparare da una prospettiva diversificata e ampia con persone”.
Meta sta lavorando per risolvere questo problema da quando ha introdotto l’app di chat BlenderBot 1 nel 2020. Inizialmente poco più che un esperimento di PNL open-source, entro l’anno successivo BlenderBot 2 aveva imparato sia a ricordare le informazioni discusse nelle conversazioni precedenti sia a cercare su Internet ulteriori dettagli su un determinato argomento. BlenderBot 3 fa un ulteriore passo avanti, valutando non solo i dati che estrae dal web, ma anche le persone con cui parla.
Quando un utente registra una risposta insoddisfacente da parte del sistema, Meta inserisce il feedback dell’utente nel modello per evitare che ripeta l’errore. Il sistema impiega anche l’algoritmo Director, che per prima cosa genera una risposta utilizzando i dati di addestramento, quindi la sottopone a un classificatore per verificare se rientra in una scala di risposte giuste o sbagliate definita dall’utente.
“Per generare una frase, i meccanismi di modellazione linguistica e di classificazione devono essere in accordo”, ha scritto il team. “Utilizzando i dati che indicano le risposte buone e cattive, possiamo addestrare il classificatore a penalizzare le affermazioni di bassa qualità, tossiche, contraddittorie o ripetitive e quelle generalmente non utili”. Il sistema impiega anche un algoritmo separato di ponderazione dell’utente per individuare le risposte inaffidabili o male intenzionate del conversatore umano, insegnando essenzialmente al sistema a non fidarsi di ciò che la persona ha da dire.
“La nostra dimostrazione pubblica, interattiva e dal vivo consente a BlenderBot 3 di imparare dalle interazioni organiche con tutti i tipi di persone”, ha scritto il team. “Incoraggiamo gli adulti negli Stati Uniti a provare la demo, a condurre conversazioni naturali su argomenti di interesse e a condividere le loro risposte per contribuire al progresso della ricerca”.
BB3 dovrebbe parlare in modo più naturale e conversazionale rispetto al suo predecessore, in parte grazie al suo modello linguistico OPT-175B massicciamente aggiornato, che è quasi 60 volte più grande del modello di BB2. “Abbiamo scoperto che, rispetto a BlenderBot 2, BlenderBot 3 offre un miglioramento del 31% nella valutazione complessiva dei compiti di conversazione, come valutato dai giudizi umani”, ha dichiarato il team. “Inoltre, è due volte più informato, essendo di fatto scorretto il 47% in meno. Rispetto a GPT3, su questioni di attualità risulta essere più aggiornato l’82% delle volte e più specifico il 76% del tempo”.