Il futuro dell’IA è qui: Microsoft Copilot integra il modello GPT-4 Turbo, offrendo agli utenti un’esperienza di scrittura assistita più potente, precisa e versatile.
Mikhail Parakhin, una figura di spicco nello sviluppo di Microsoft Copilot, ha annunciato tramite la piattaforma social X un’innovazione nel campo dell’intelligenza artificiale: il modello GPT-4 Turbo. La nuova versione, elogiata per le sue prestazioni migliorate e la maggiore precisione, introduce una modalità dualistica, che gli utenti possono attivare a seconda delle proprie necessità.
L’introduzione di GPT-4 Turbo potrebbe essere l’antipasto di qualcosa di ancora più innovativo: le voci di corridoio suggeriscono il possibile arrivo di un modello GPT-4.5 Turbo. Se queste speculazioni dovessero concretizzarsi, potremmo assistere a un nuovo standard nel mondo dell’IA, dove le innovazioni più recenti e avanzate diventano accessibili ai membri premium prima di essere distribuite a tutti gli utenti, garantendo così ai sottoscrittori di Copilot Pro un accesso privilegiato.
GPT-4 Turbo, rilasciato da OpenAI verso la fine del 2023, si distingue per la sua capacità di gestire finestre pop-up fino a 128.000 token, equivalente a circa 300 pagine di testo. Questa caratteristica rappresenta un salto qualitativo rispetto ai precedenti modelli, migliorando significativamente la capacità dell’IA di produrre risposte coerenti e dettagliate su argomenti complessi.
La nozione di finestra contestuale è cruciale per comprendere l’importanza di questo sviluppo. Le finestre contestuali permettono all’IA di “ricordare” e utilizzare le informazioni fornite nel corso di una conversazione o da documenti precedenti, influenzando direttamente la pertinenza e la coerenza delle sue risposte. Il passaggio a una finestra di 128.000 token, quindi, segna un incremento quattro volte maggiore rispetto alla precedente capacità di 32.000 token di GPT-4, evidenziando un miglioramento nelle prestazioni del modello.
OpenAI si è inoltre impegnata a combattere la “pigrizia” del modello, un fenomeno per cui GPT-4, anziché eseguire direttamente un’azione richiesta, forniva istruzioni su come l’utente potesse compiere l’azione da sé. Tutto questo vuole rendere GPT-4 Turbo non solo più efficiente e preciso ma anche più diretto nel soddisfare le richieste degli utenti.