Le aziende e le organizzazioni che necessitano di un modello di linguaggio per le loro esigenze di IA generativa hanno a disposizione diverse soluzioni:
non mancano le opzioni, siano esse commerciali o open source. OpenAI non vuole rimanere indietro e lancia GPT-4o mini, il suo modello più accessibile, ma non per questo meno potente.
La concorrenza si fa accesa nel settore dei grandi modelli di linguaggio (LLM). I fornitori di IA, che si tratti di Google, Meta, Anthropic o anche Cohere, offrono LLM adatti a tutti gli usi. OpenAI è ovviamente uno di questi e il suo catalogo include diversi modelli: GPT-3.5 Turbo, GPT-4o… e da oggi, GPT-4o mini.
Mini, ma robusto
Proprio come il suo “fratello maggiore” GPT-4o, il nuovo LLM è multimodale, interpreta immagini e testo e può utilizzare Dall-E 3 per generare immagini. Sarà disponibile da oggi per gli utenti di ChatPlus e gli abbonati a ChatPlus Plus/Team, mentre i clienti Enterprise potranno utilizzarlo la settimana prossima. Ma OpenAI punta anche e soprattutto alle organizzazioni che necessitano di un LLM per i propri lavori.
Questa versione di GPT-4 è “60% più economica del modello più economico di OpenAI”, annuncia l’azienda, offrendo al contempo migliori prestazioni per compiti relativamente semplici (riassunto di testi, creazione di elenchi, suggerimento di parole). Per raggiungere questo obiettivo, OpenAI ha migliorato l’architettura del modello e affinato i dati di addestramento. GPT-4o mini supera gli altri modelli “piccoli” disponibili sul mercato (nei benchmark realizzati dall’azienda, un dettaglio importante). GPT-4o mini sostituirà inoltre, a lungo termine, GPT-3.5 Turbo.
GPT-4o mini affronta una concorrenza temibile, in particolare da parte di Meta, che ha pubblicato Llama 3 come open source. Il LLM può quindi adattarsi facilmente alle esigenze, anche se la licenza impone limiti alla commercializzazione di servizi alimentati da Llama 3.
Wired riporta che Meta ha in programma di rilasciare intorno al 23 luglio un nuovo modello Llama 3 molto più potente rispetto a quelli attualmente disponibili: conterebbe infatti 400 miliardi di parametri, contro 8 e 70 miliardi per i due altri modelli di dimensioni più piccole. Il numero di parametri offre un’indicazione delle capacità di un LLM, anche se non è l’unico criterio da considerare.
Leggere: Abbiamo testato ChatPlus 4o e non possiamo più farne a meno.
Fonte: www.01net.com