OpenAI ha presentato il suo nuovo modello, GPT-4o (“o” per “omni”), che rappresenta un passo avanti incredibile verso interazioni uomo-computer più naturali e complesse.
Questo modello innovativo è capace di gestire input e output in forme combinate di testo, audio e immagini, migliorando significativamente la velocità e l’efficienza rispetto ai suoi predecessori.
GPT-4o può rispondere agli input audio in soli 232 millisecondi, una rapidità paragonabile ai tempi di risposta umani nelle conversazioni di tutti i giorni.
Rispetto a GPT-4, mostra miglioramenti notevoli nel trattamento di testi in lingue diverse dall’inglese, mantenendo prestazioni elevate nella generazione di testo in inglese e codice, il tutto con un costo ridotto del 50% nelle API.
GPT-4o integra un nuovo approccio di apprendimento che combina testo, visione e audio in un unico modello di rete neurale, rendendo possibile una comprensione e generazione di contenuti più sofisticata. Questo modello è il primo di OpenAI a combinare tutte queste modalità, ampliando notevolmente le potenzialità applicative.
Tra le funzionalità esplorate, vi sono la traduzione audio in tempo reale, la narrazione visiva, e l’interazione migliorata attraverso giochi e esercizi di preparazione a colloqui, evidenziando un’avanzata comprensione e produzione multimediale.
Con l’obiettivo di migliorare ulteriormente la sicurezza e l’efficacia, OpenAI ha sottoposto GPT-4o a una rigorosa valutazione esterna, continuando a lavorare su infrastrutture tecniche e politiche di sicurezza per supportare il rilascio sicuro delle nuove modalità di interazione.
OpenAI ha anche presentato un’applicazione desktop, mostrata su Mac, ma presumibilmente che arriverà anche su Windows, in grado di utilizzare il nuovo modello e di vedere cosa c’è sullo schermo (previa autorizzazione di accesso, ovviamente) per aiutarvi nei task quotidiani.
Potete approfondire l’argomento, le funzionalità, e soprattutto guardare tanti video di esempio sulla pagina ufficiale di OpenAI.
Lascia un commento