ReutersReuters

Meta rilascia le prime versioni del suo modello di AI Llama 3

Meta Platforms META ha rilasciato giovedì le prime versioni del suo ultimo modello linguistico di grandi dimensioni, Llama 3, e di un generatore di immagini che aggiorna le immagini in tempo reale mentre gli utenti digitano le richieste, mentre cerca di raggiungere il leader del mercato dell'IA generativa OpenAI.

I modelli saranno integrati nell'assistente virtuale Meta AI, che l'azienda presenta come il più sofisticato tra quelli gratuiti. L'assistente avrà un ruolo più importante all'interno delle applicazioni Facebook, Instagram, WhatsApp e Messenger di Meta, oltre che in un nuovo sito web indipendente che lo posiziona in modo da competere più direttamente con ChatGPT, il successo di OpenAI sostenuto da Microsoft MSFT.

(link) L'annuncio arriva mentre Meta si sta dando da fare per offrire prodotti di IA generativa ai suoi miliardi di utenti e sfidare la posizione di leader di OpenAI in questa tecnologia, con una revisione dell'infrastruttura di calcolo (link) e il consolidamento di team di ricerca e di prodotto precedentemente distinti.

Il gigante dei social media ha dotato Llama 3 di nuove capacità di codifica informatica e questa volta gli ha dato in pasto anche immagini e testo, anche se per ora il modello produrrà solo testo, ha detto in un'intervista Chris Cox, Chief Product Officer di Meta.

Nelle versioni successive verranno sviluppati ragionamenti più avanzati, come la capacità di creare piani più lunghi e in più fasi. Le versioni che verranno rilasciate nei prossimi mesi saranno anche capaci di "multimodalità", cioè di generare sia testo che immagini, ha detto Meta in un post sul blog.

"L'obiettivo alla fine è quello di aiutarvi a togliere cose dal poco mosso, a semplificarvi la vita, sia che si tratti di interagire con le aziende, sia che si tratti di scrivere qualcosa, sia che si tratti di pianificare un viaggio", ha detto Cox.

Cox ha detto che l'inclusione delle immagini nell'addestramento di Llama 3 migliorerà l'aggiornamento in arrivo quest'anno per gli occhiali intelligenti Ray-Ban Meta, una partnership con il produttore di occhiali Essilor Luxoticca EL, che consente a Meta AI di identificare gli oggetti visti da chi li indossa e di rispondere alle domande su di essi.

Meta ha inoltre annunciato una nuova partnership con Google GOOG di Alphabet per includere i risultati di ricerca in tempo reale nelle risposte dell'assistente, integrando un accordo già esistente con Bing di Microsoft.

Con l'aggiornamento, l'assistente Meta AI si espande a più di una dozzina di mercati al di fuori degli Stati Uniti, tra cui Australia, Canada, Singapore, Nigeria e Pakistan. Meta sta "ancora lavorando sul modo giusto per farlo in Europa", ha detto Cox, dove le norme sulla privacy sono più severe e l'imminente legge sull'IA (link) è pronta a imporre requisiti come la divulgazione dei dati di addestramento dei modelli.

Il bisogno vorace di dati dei modelli di IA generativa è emerso come una delle principali fonti di tensione (link) nello sviluppo della tecnologia.

Meta ha rilasciato modelli come Llama 3 per l'uso commerciale gratuito da parte degli società edili come parte del suo sforzo di recupero, in quanto il successo di un'opzione potente e gratuita potrebbe ostacolare i piani dei rivali di ottenere ricavi dalla loro tecnologia proprietaria. La strategia ha anche suscitato preoccupazioni per la sicurezza da parte di chi teme che società edili senza scrupoli possano usare questo modello per costruire.

L'amministratore delegato di Meta, Mark Zuckerberg, ha fatto un cenno alla concorrenza in un video che accompagna l'annuncio, in cui ha definito Meta AI "l'assistente AI più intelligente che si possa usare liberamente"

Zuckerberg ha detto che la versione più grande di Llama 3 è attualmente in fase di addestramento con 400 miliardi di parametri e ha già ottenuto un punteggio di 85 MMLU, citando le metriche utilizzate per indicare la forza e la qualità delle prestazioni dei modelli di AI. Le due versioni più piccole in fase di lancio hanno 8 miliardi di parametri e 70 miliardi di parametri, e quest'ultima ha ottenuto un punteggio di circa 82 MMLU (Massive Multitask Language Understanding).

Gli società edili si sono lamentati del fatto che la precedente versione di Llama 2 del modello non riusciva a comprendere il contesto di base, confondendo le richieste su come "uccidere" un programma informatico con le richieste di istruzioni per commettere un omicidio. La rivale Google ha incontrato problemi simili e di recente ha messo in pausa l'uso del suo strumento di generazione di immagini Gemini AI (link) dopo che questo ha suscitato critiche per aver prodotto rappresentazioni imprecise di personaggi storici.

Meta ha detto di aver ridotto questi problemi in Llama 3 utilizzando "dati di alta qualità" per far sì che il modello riconosca le sfumature. Meta non ha fornito dettagli sui set di dati utilizzati, anche se ha detto di aver inserito in Llama 3 una quantità di dati sette volte superiore a quella utilizzata per Llama 2 e di aver utilizzato dati "sintetici", o creati dall'intelligenza artificiale, per rafforzare aree come la codifica e il ragionamento.

Cox ha detto che "non c'è stato un grande cambiamento di posizione" in termini di come l'azienda si è procurata i dati per l'addestramento.

Accedi o crea un account gratuito per leggere queste notizie