Meta cambia marcia e annuncia la famiglia LLaMA 4, segnando un salto qualitativo verso un’intelligenza artificiale nativamente multimodale.
Nel whitepaper ufficiale, l’azienda presenta tre nuovi modelli – Scout, Maverick e Behemoth – progettati per adattarsi a diverse esigenze, dalla leggerezza per l’edge computing alla potenza bruta per ambienti cloud.L’obiettivo è chiaro: fornire un’AI capace di comprendere e generare testo, immagini, audio e video in un unico flusso logico, aprendosi a nuove applicazioni nel mondo produttivo, creativo e scientifico.
Nel documento tecnico, Meta suddivide la nuova architettura LLaMA 4 in tre “unità” strategiche:
Questa divisione risponde all’esigenza di scalabilità: invece di un solo grande modello “tuttofare”, Meta punta su modelli mirati e specializzati, ottimizzati per casi d’uso concreti.
Un elemento centrale della filosofia LLaMA 4 è l’approccio nativamente multimodale.
Non si tratta solo di un modello che “accetta immagini o testo”, ma di una rete che unifica linguaggio, visione e suono, apprendendo il contesto e ragionando in modo più coerente e fluido.Inoltre, Meta evidenzia l’importanza dell’allineamento con l’intelligenza umana, lavorando su interfacce più naturali e su sistemi che possano collaborare con l’uomo anziché solo assisterlo.La nuova architettura integra anche un’attenzione crescente alla sicurezza, alla spiegabilità e all’efficienza energetica, segnando una visione a lungo termine più matura rispetto ai modelli precedenti.