Il team di ricerca Meta FAIR (Fundamental AI Research) ha annunciato un aggiornamento importante: ben cinque nuovi modelli AI open source rilasciati contemporaneamente. L’obiettivo? Costruire sistemi di intelligenza artificiale più simili al pensiero umano, in grado di comprendere il mondo in modo multimodale, di ragionare e persino di interagire con oggetti fisici.Questa iniziativa conferma la strategia di Meta: spingere sull’apertura scientifica, condividendo strumenti avanzati con la comunità di sviluppatori e ricercatori, per accelerare l’evoluzione dell’AI in modo etico e collaborativo. I modelli spaziano dalla comprensione visiva alla logica formale, passando per la manipolazione robotica e la sintesi audio.
Vediamoli nel dettaglio:
Meta, con queste release, mostra chiaramente la direzione della propria ricerca: creare modelli che imparano come gli esseri umani, sfruttando il contesto visivo, audio, linguistico e motorio. È un passo verso intelligenze che possano agire nel mondo reale, apprendere dai dati grezzi e adattarsi a nuovi scenari.Il rilascio open source di questi strumenti serve a democratizzare l’accesso alla tecnologia e accelerare la ricerca pubblica. Tutti i modelli sono disponibili via GitHub e Hugging Face, con documentazione completa e esempi d’uso.
Vuoi scoprire come funzionano i modelli AI open source di nuova generazione?
🎥 Iscriviti al canale YouTube ComeFareAI per tutorial, approfondimenti e prove pratiche sui modelli di Meta e non solo.