ChatGPT: OpenAI ha svelato GPT-4o, un modello di intelligenza artificiale che elabora testo, voce e video, ma quali sono le differenze con il modello GPT-4?
OpenAI ha recentemente introdotto un nuovo modello di intelligenza artificiale denominato GPT-4o, dove la “o” simboleggia “omni”. Questo avanzato modello è capace di elaborare testo, voce e video e rappresenta un’ulteriore evoluzione nel panorama tecnologico dell’AI. Nei prossimi giorni, GPT-4o verrà gradualmente integrato nei prodotti destinati sia a sviluppatori che a consumatori. Durante il lancio, è stata annunciata anche l’introduzione di una nuova applicazione desktop di ChatGPT con funzionalità vocale integrata. Inizialmente, questa sarà disponibile per macOS agli utenti ChatGPT Plus, con piani per un’espansione futura. Una versione per Windows è prevista più avanti nel 2024.
Riguardo alle prestazioni, GPT-4o risponde agli input audio in soli 232 millisecondi, con una media di 320 millisecondi, tempi comparabili a quelli di una conversazione umana. Il nuovo modello è due volte più rapido del suo predecessore, il GPT-4.0 Turbo, e ha ridotto i costi di gestione per OpenAI del 50%, un risparmio che verrà trasferito agli utenti attraverso una riduzione dei prezzi e l’estensione di funzionalità anche ai profili gratuiti. Inoltre, presenta un incremento quinquennale dei limiti di frequenza di utilizzo. GPT-4o ha anche migliorato in qualità e velocità su 50 lingue e sarà accessibile attraverso l’API di OpenAI, permettendo agli sviluppatori di sfruttare subito le potenzialità del nuovo modello.
GPT-4o si distingue per la sua capacità di interagire con gli utenti mostrando tratti distintamente umani. Basandosi sulla demo fornita, il modello ha mostrato di riconoscere le emozioni; per esempio, ha assistito un utente visibilmente emozionato, aiutandolo a rilassarsi con consigli espressi mediante una voce calda e convincente. Mark Chen, ricercatore presso OpenAI, ha evidenziato come il modello possa “percepire le vostre emozioni”. Il sistema è stato anche in grado di interpretare l’espressione facciale di un utente e di identificare la felicità nel suo sorriso.
In termini di adattabilità vocale, il chatbot può modificare il tono e lo stile della conversazione a seconda delle richieste dell’utente. Inoltre, GPT-4o ha dimostrato capacità di risolvere equazioni matematiche assistendo gli utenti con spiegazioni vocali dettagliate, una risorsa preziosa per studenti che affrontano materie complesse come le scienze esatte.
GPT-4o sarà inizialmente disponibile per gli abbonati a pagamento di ChatGPT, con i membri Plus che beneficeranno di un limite di messaggi quintuplicato rispetto agli utenti gratuiti. I livelli Team ed Enterprise godranno di limiti ancora più estesi. Attraverso l’API, il modello sarà offerto a metà prezzo rispetto a GPT-4 Turbo e con prestazioni raddoppiate, oltre a limiti di velocità quintuplicati, come condiviso da Sam Altman, cofondatore e CEO di OpenAI, durante l’evento.