Adobe Firefly Video Model, un potente strumento di intelligenza artificiale che ti permette di generare video partendo da testo, immagini e molto altro.
Adobe ha presentato i suoi nuovi strumenti Firefly Video Model, che saranno disponibili in versione beta entro la fine dell’anno. I nuovi strumenti promettono di rivoluzionare l’editing video, combinando l’intelligenza artificiale con l’automazione di compiti che, fino ad oggi, richiedevano tempo e competenze. Come già visto in altri settori tecnologici, l’IA viene descritta come un supporto supplementare, progettato per “eliminare la noia della post-produzione” e permettere ai creativi di concentrarsi sulle parti più stimolanti del loro lavoro.
Tra le nuove funzioni di Firefly Video Model spiccano il passaggio da testo a video e il Generative Extend, che sarà integrato in Premiere Pro. Adobe sostiene che questi strumenti aiuteranno i montatori a riempire spazi vuoti nelle riprese, rimuovere oggetti indesiderati, migliorare le transizioni e trovare il b-roll perfetto. L’idea è di liberare tempo prezioso per permettere agli editor di esplorare nuove idee creative, semplificando le operazioni più ripetitive e meccaniche.
La funzione Text-to-Video permette di creare video direttamente da un semplice prompt testuale, con strumenti avanzati per controllare angoli di ripresa, movimenti e zoom. Ad esempio, l’IA può prendere una ripresa incompleta e riempire automaticamente gli spazi mancanti, oppure trasformare un’immagine statica in un video dinamico. Adobe ha evidenziato che i suoi modelli video funzionano particolarmente bene con contenuti naturali, consentendo di creare riprese mozzafiato senza un budget elevato.
Durante la presentazione, Adobe ha mostrato esempi sorprendenti. Un prompt testuale che descriveva un vulcano in eruzione o un cane che si rilassa in un campo di fiori ha generato video di alta qualità che sembravano provenire da produzioni costose. Anche il fantastico non è fuori portata: in un esempio, è stato chiesto all’IA di creare un gruppo di mostri di lana in miniatura che ballavano a una festa, e il risultato è stato incredibilmente realistico.
Un altro strumento che ha catturato l’attenzione è il Generative Extend, che permette di estendere e riempire scene incomplete. In un esempio, un’immagine galattica è stata trasformata in un video che si allontanava per rivelare l’interno di un occhio umano. Un’altra demo ha mostrato due persone che attraversavano un ruscello in una foresta, con una parte della scena riempita dall’IA senza che fosse possibile distinguere la differenza con il girato originale.
Sebbene gli esempi mostrati siano stati curati da Adobe, è innegabile che la qualità sia sorprendente. Se questi risultati rappresentano davvero il potenziale degli strumenti AI di Adobe, il mondo della produzione video, dalla televisione al cinema, fino alle pubblicità, potrebbe trovarsi di fronte a potenti scorciatoie. Tutto ciò potrebbe portare a una rivoluzione nell’industria audiovisiva, permettendo la creazione di contenuti complessi in tempi più rapidi e a costi inferiori.