Amazon lancia il proprio guanto di sfida a OpenAI e Alphabet. Secondo quanto riporta l’agenzia Reuters, il colosso dell’ecommerce starebbe infatti investendo alcuni milioni di dollari per realizzare un proprio modello linguistico di grandi dimensioni (Llm), a cui avrebbe dato il nome in codice Olympus.
spese spedizione amazon SMITH COLLECTION/GADO/GETTY IMAGE - Fonte: Wired
Le fonti intercettate dall’agenzia britannica hanno assicurato che il progetto sarebbe molto ambizioso. Il modello si baserebbe infatti su duemila miliardi di parametri diversi, dato che lo renderebbe uno dei modelli più grandi in fase di addestramento. Basti pensare che GPT-4, uno dei sistemi migliori tra quelli disponibili, si basa su mille miliardi di parametri.
A guidare il team che si occuperà di Olympus, Amazon ha posto l’ex capo di Alexa Rohit Prasad, che dovrà riportare aggiornamenti e sviluppi del progetto direttamente all’amministratore delegato Andy Jassy. Essendo il capo scienziato dell’intelligenza generale forte (Agi) dell’azienda di Seattle, Prasad avrebbe già assoldato i ricercatori che avevano lavorato su Alexa AI e il team scientifico della società per lavorare su modelli di formazione, mettendo insieme gli sforzi di tutta l’azienda nel campo dell’intelligenza artificiale e potendo contare su risorse dedicate al progetto.
In passato Amazon ha già addestrato modelli di linguaggio di dimensioni più modeste, come per esempio Titan, e ha collaborato con startup del settore come Anthropic e AI21 Labs, con l’obiettivo di offrire alcuni servizi agli utenti di Amazon web services (Aws). Secondo quanto riporta l’agenzia stampa britannica, il colosso di Seattle si sarebbe però convinto nel tempo che possedere modelli sviluppati internamente potrebbe rendere le sue offerte più attraenti.
Al momento la società fondata da Jeff Bezos non avrebbe comunicato una tempistica certa per quanto riguarda il rilascio di Olympus. Era invece noto sin dallo scorso aprile che Amazon avrebbe aumentato i propri investimenti sull’intelligenza artificiale generativa e, in particolare, sui modelli di linguaggio di grandi dimensioni.
Fonte: Wired