18 Apr
18Apr

Nuove release open source per far avanzare il linguaggio, la visione e la robotica

Il team di ricerca Meta FAIR (Fundamental AI Research) ha annunciato un aggiornamento importante: ben cinque nuovi modelli AI open source rilasciati contemporaneamente. L’obiettivo? Costruire sistemi di intelligenza artificiale più simili al pensiero umano, in grado di comprendere il mondo in modo multimodale, di ragionare e persino di interagire con oggetti fisici.Questa iniziativa conferma la strategia di Meta: spingere sull’apertura scientifica, condividendo strumenti avanzati con la comunità di sviluppatori e ricercatori, per accelerare l’evoluzione dell’AI in modo etico e collaborativo. I modelli spaziano dalla comprensione visiva alla logica formale, passando per la manipolazione robotica e la sintesi audio.


I 5 modelli rilasciati da Meta FAIR

Vediamoli nel dettaglio:

  1. Chameleon
    Un potente modello multimodale che comprende sia testo che immagini. Capace di generare descrizioni visive, comprendere contenuti visivi e rispondere in modo coerente con il contesto. È pensato per l’integrazione in sistemi di assistenza o ricerca.
  2. JASCO (Joint Audio-Text Semantics)
    Un modello che collega audio e linguaggio: permette, ad esempio, di descrivere suoni, analizzare conversazioni o generare testo coerente da input sonori. Perfetto per trascrizioni, podcast AI e interfacce vocali.
  3. MEGALODON
    Un nuovo LLM che gestisce contesti estremamente lunghi con una finestra di attenzione scalabile. Ottimo per letture tecniche, documenti, codice e lunghi testi da analizzare senza perdita di coerenza.
  4. DINOv2
    Aggiornamento del modello visivo auto-supervisionato, capace di capire contenuti visivi senza bisogno di label. Utile per la classificazione di immagini, segmentazione e compiti visivi generalizzati.
  5. HULC (Human-like Control)
    Un framework di controllo robotico che permette ai robot di apprendere da dimostrazioni umane e replicare azioni complesse con coordinazione, come versare liquidi, afferrare oggetti o manipolare ambienti.

L’obiettivo: costruire intelligenze che apprendono come noi

Meta, con queste release, mostra chiaramente la direzione della propria ricerca: creare modelli che imparano come gli esseri umani, sfruttando il contesto visivo, audio, linguistico e motorio. È un passo verso intelligenze che possano agire nel mondo reale, apprendere dai dati grezzi e adattarsi a nuovi scenari.Il rilascio open source di questi strumenti serve a democratizzare l’accesso alla tecnologia e accelerare la ricerca pubblica. Tutti i modelli sono disponibili via GitHub e Hugging Face, con documentazione completa e esempi d’uso.


Vuoi scoprire come funzionano i modelli AI open source di nuova generazione?

🎥 Iscriviti al canale YouTube ComeFareAI per tutorial, approfondimenti e prove pratiche sui modelli di Meta e non solo.

Commenti
* L'indirizzo e-mail non verrà pubblicato sul sito Web.