Olivier Corolleur nominato Direttore Generale dell’Arcep. L’Autorità di regolamentazione delle comunicazioni elettroniche, dei servizi postali e della distribuzione della stampa ha un nuovo Direttore Generale nella persona di Olivier Corolleur. Quest’ultimo subentra a Cécile Dubarry, recentemente nominata Direttore Generale dell’Istituto Mines-Telecom. Olivier Corolleur conosce bene l’Arcep, poiché fino ad ora ricopriva il ruolo di Direttore Generale Aggiunto dal novembre 2021. Questo avvicendamento, effettivo dal 22 luglio, è ufficializzato a partire dal 19 agosto. Olivier Corolleur è stato, tra l’altro, Direttore del Piano Fibra e Infrastrutture e Territori all’interno dell’istituzione e in precedenza Sottodirettore delle Comunicazioni Elettroniche e dei Servizi Postali presso la Direzione Generale delle Imprese.
Era entrato nell’Arcep nel 2010 come Capo dell’Unità Regolamentazione e Gestione dello Spettro, prima di essere nominato nel 2012 Direttore degli Affari Economici e Prospective e poi nel 2014 Direttore di Internet e Utenti. Inoltre, è stato nel 2007 Capo dell’Ufficio delle Tecnologie e delle Reti di Comunicazione della Direzione dello Sviluppo dei Media nei servizi del Primo Ministro. Olivier Corolleur è Ingegnere Generale delle Miniere, laureato all’École Polytechnique e a Télécom Parigi Tech.

Fonte in francese: www.lemondeinformatique.fr
Abbiamo testato Moshi, l’IA vocale francese che sogna di superare ChatPlus
Abbiamo testato Moshi, l’IA sviluppata dal laboratorio di ricerca francese Kyutai, per diversi giorni. Frenata da server in ritardo, l’assistente vocale che ambisce a superare ChatPlus non ha mantenuto le promesse.
All’inizio di luglio, Kyutai, un laboratorio di ricerca francese fondato da Xavier Niel, ha svelato Moshi. In meno di sei mesi, il laboratorio è riuscito a sviluppare un’intelligenza artificiale vocale. In parallelo a Siri, Google Assistant o Alexa, Moshi può interagire con i suoi interlocutori tramite la voce. Kyutai afferma che il suo assistente è in grado di avere una conversazione naturale con gli utenti. Questa è la grande promessa del laboratorio non profit, che viene talvolta descritto come l’OpenAI made in France.
Per avere una conferma, abbiamo conversato a lungo con Moshi tramite il sito web di dimostrazione offerto da Kyutai. Poco dopo l’annuncio, è stata messa a disposizione una versione sperimentale di Moshi. Il sito non richiede alcuna registrazione e consente di interagire con l’IA attraverso un’interfaccia semplice. Tutte le conversazioni sono limitate a cinque minuti. È sufficiente inserire un’email per unirsi alla lista d’attesa e parlare con Moshi.
Per approfondire: OpenAI ha grandi ambizioni per il suo piccolo modello GPT-4o mini
Il problema della latenza
Sulla carta, l’assistente vocale, che utilizza la voce di un’artista chiamata Alice, promette risposte istantanee, simili a una conversazione normale tra due esseri umani. Secondo Kyutai, il tempo di latenza non supera i 160 millisecondi, un record per il settore. Non dovremmo dover aspettare davanti allo schermo in attesa che l’IA ci risponda. In pratica, Moshi ha sempre impiegato un tempo anormalmente lungo per rispondere, anche a domande molto semplici o saluti quotidiani come “ciao” o “come va?”. Ci troviamo quasi sempre a guardare lo schermo in attesa che la voce di Moshi esca dal nostro smartphone o computer.

**In effetti, abbiamo ottenuto risposte più rapide, complete e pertinenti parlando con la versione vocale di ChatPlus. L’IA di OpenAI è sempre riuscita a fornirci risposte in un tempo relativamente breve, anche quando facevamo domande piuttosto complesse che richiedono un po’ di ricerca o riflessione.**
In caso di scarse prestazioni, Kyutai raccomanda agli utenti di provare la versione sperimentale americana. È quello che abbiamo fatto e, a volte, abbiamo notato qualche miglioramento. Per alcuni secondi, siamo riusciti a mantenere una conversazione relativamente fluida con l’assistente.
È molto probabile che la latenza derivi dalla natura sperimentale dell’IA. Infatti, non abbiamo a che fare con una versione definitiva dell’assistente vocale. È possibile che i server utilizzati dal laboratorio siano semplicemente sovraccarichi. Ci auguriamo che Kyutai riesca a risolvere il problema nel prossimo futuro e che la versione locale superi questa difficoltà. L’IA può infatti essere installata localmente su un computer o uno smartphone non connesso a Internet grazie a metodi di compressione. Nel frattempo, una delle promesse dell’IA non è mantenuta, almeno per ora.
L’IA che ci interrompe
Durante alcuni scambi, l’IA ha persino mostrato la fastidiosa tendenza a interromperci. Come avveniva durante le dimostrazioni di Kyutai, il robot risponde prima che abbiamo avuto il tempo di finire la nostra frase. Di fatto, la fine della nostra richiesta spesso viene tralasciata. Durante le conversazioni, Moshi perde anche il filo del discorso, mancando di rispondere adeguatamente a ciò che stiamo dicendo. In effetti, il robot risponde a una considerazione diversa, dedotta da un elemento dell’inizio della nostra frase, e omette di reagire al seguito della nostra richiesta. In questi casi, è molto complicato fermare l’IA quando è avviata in un monologo. Se desiderate correggere la situazione, interrompendo Moshi per fornire ulteriori informazioni, dovrete aspettare la fine della sua risposta. In sintesi, è un po’ frustrante.
A volte sembra che l’IA stia già pensando a cosa rispondere mentre noi stiamo ancora parlando. Come indicato anche da Alexandre Défossez, uno dei fondatori scientifici di Kyutai, l’IA «parla mentre pensa». Questo è, infine, ciò che avvicina di più Moshi a un interlocutore umano.
Do you speak Italian ?
ome indicato da Kyutai, Moshi non è ancora in grado di parlare un’altra lingua oltre l’inglese. Nonostante le sue origini, l’IA non può comunicare in francese. Tuttavia, quando le viene posta una domanda, l’IA risponde con sicurezza di essere effettivamente in grado di parlare francese o in italiano.

**Abbiamo quindi chiesto più volte a Moshi di risponderci in francese. Invano. L’assistente vocale insiste nel dirci che parla francese, ma lo fa in inglese. Non siamo riusciti a ottenere nemmeno una risposta nella lingua di Molière. È piuttosto deludente che un assistente vocale sviluppato in Francia non possa conversare in francese. Speriamo ancora che Kyutai abbia intenzione di correggere questa lacuna in un futuro prossimo.**
Emozioni percepibili
In teoria, Moshi si distingue anche per il modo in cui esprime e riconosce le emozioni. Secondo Kyutai, l’IA è capace di imitare fino a 70 emozioni umane. Durante i nostri scambi, abbiamo effettivamente notato che l’intonazione di Moshi era spesso molto più vicina a quella di una voce umana rispetto ad altri assistenti vocali, come Alexa, Siri o ChatPlus, la cui versione vocale attuale è molto robotica. Il tono della voce del robot varia a seconda della conversazione. Se chiedete una ricetta o l’indirizzo di un ristorante, l’IA risponde con una voce vivace. Se le chiedete se le piacciono i sushi, l’intelligenza artificiale risponderà con entusiasmo, variando la velocità e accentuando alcuni suoni.
Tuttavia, non siamo riusciti a scoprire tutta l’estensione delle possibilità offerte da Moshi in questo senso. Le conversazioni sono sempre state interrotte a causa della latenza. In queste condizioni, è stato difficile verificare se Moshi fosse in grado di comprendere le emozioni che esprimevamo. Quando le abbiamo detto che eravamo stanchi, l’IA ha risposto con un tono piuttosto comprensivo. Da questo punto di vista, possiamo sperare che gli obiettivi del laboratorio possano essere raggiunti.
Va notato che l’IA ha spesso cominciato a dire cose senza senso. In alcuni casi, il robot vocale ha inventato risposte assurde a domande basilari, probabilmente male interpretate. In altri scenari, l’IA ha interrotto la discussione con dichiarazioni inaspettate, come “ho voglia di un donut”.

È tipico delle IA generative “allucinare”, ossia raccontare qualsiasi cosa con sicurezza in alcune circostanze, ma Moshi ci ha comunque sorpresi. A volte, il robot devia la conversazione verso un’angolazione totalmente inaspettata, parlando dell’esercito americano senza alcun motivo apparente, o chiedendoci un panino al prosciutto… Con queste dichiarazioni sorprendenti, si percepisce che Kyutai ha cercato di rendere l’IA il più umana possibile.
Risultati iniziali poco promettenti
In definitiva, siamo rimasti delusi comunicando con Moshi. Nella sua versione sperimentale, l’assistente vocale open source è lontano dalle ambiziose promesse di Kyutai. In teoria, Moshi dovrebbe offrire un’esperienza conversazionale molto superiore a quella di assistenti intelligenti molto diffusi, come Siri o Google Assistant, e persino superare la versione vocale di ChatPlus.
In pratica, l’IA è ancora lontana dal poter competere con le soluzioni già disponibili sul mercato. Dobbiamo attendere che il progetto evolva e si liberi dai server inefficaci del laboratorio affinché Moshi possa dimostrare di essere all’altezza…
???? Per non perdere nessuna notizia di 01net, seguici su Google Actualités et WhatsApp.
Fonte in francese: www.01net.com
BRINDISI – Nei giorni scorsi, presso la sede del Distretto tecnologico aerospaziale (Dta), si è riunita la commissione di valutazione del bando dell’Esa Bic (Business Incubation Centre) Brindisi, il primo e unico incubatore di startup spaziali del Sud Italia.
La commissione valutatrice, composta da rappresentanti di Esa, Asi, Dta e dei partner dell’incubatore, ha esaminato le candidature sottomesse alla seconda cut-off date del 2024. Le startup candidate hanno presentato un pitch della loro idea di business connessa allo spazio, valutate dalla commissione su una serie di criteri, tra cui: background ed esperienza del team, tecnologia sviluppata, connessione con lo spazio, opportunità di mercato e modello di business. Le proposte selezionate potranno quindi entrare nel programma di incubazione. Le startup ammesse al programma, della durata di 2 anni, riceveranno un contributo di 50 mila euro. Di seguito, le quattro startup selezionate nei giorni scorsi e ammesse al programma Esa Bic Brindisi.
Le aziende coinvolte:
- Archimede: sviluppo di una piattaforma digitale che faciliti lo sviluppo di applicazioni decentralizzate con moduli satellitari (comunicazione e posizionamento) per sistemi IoT (Internet of Things);
- aSpace: sviluppo di una soluzione software che impiega dati satellitari di osservazione della Terra e algoritmi di intelligenza artificiale per creare miscele di fertilizzanti personalizzate per il settore agricolo, adattate alle specifiche caratteristiche del suolo;
- AInexAir: dispositivo multifunzione per migliorare le capacità di volo dei droni, con funzionalità di posizionamento, invio/ricezione di dati via satellite e sicurezza di missione;
- Dymension Space: soluzioni software innovative per la gestione del design e della fabbricazione di sistemi complessi, come veicoli spaziali.
Le altre due startup già entrate nel programma di incubazione e selezionate all’inizio del 2024 sono le seguenti:
- FlyingDEMon: soluzioni nel campo della rilevazione e del monitoraggio ambientale di elementi radioattivi derivate da tecnologie già utilizzate per l’osservazione dello spazio profondo;
- GreenWisp: sviluppo di trasmettitori per piccoli satelliti per abilitare la comunicazione con i satelliti delle grandi costellazioni Satcom commerciali ed ottimizzare lo scambio di dati da e verso Terra.
Rimani aggiornato sulle notizie dalla tua provincia iscrivendoti al nostro canale whatsapp: clicca quiSeguici gratuitamente anche sul canale Facebook: https://m.me/j/Abampv2kioahdYYR/
Fonte: www.brindisireport.it
Al ritmo con cui crescono i data center in Irlanda, questo doveva accadere prima o poi. I data center stabiliti nel paese, divenuto un polo di attrazione europeo per queste installazioni altamente energivore, consumano ora più elettricità di tutte le case in città, secondo i dati ufficiali pubblicati martedì 23 luglio.
Leggi anche | Articolo riservato ai nostri abbonati Dietro l’IA, l’ondata dei data center
Secondo l’agenzia nazionale irlandese di statistica, i data center hanno utilizzato il 21% del totale del consumo elettrico misurato nel 2023 nel paese, rispetto al 5% nel 2015 e al 18% nel 2022.
Per la prima volta, il loro consumo ha superato quello delle case in città, che ammontava al 18% nel 2023 e al 19% nel 2022. Le case in campagna, invece, rappresentano il 10% del totale del consumo a livello nazionale.
Una domanda in accelerazione con i progressi dell’IA
Questo record rischia di alimentare un dibattito sempre più acceso in Irlanda sui bisogni energetici dei data center, questi vasti magazzini dove sono immagazzinate le montagne di informazioni utilizzate da aziende e privati. La pressione che esercitano sulla rete elettrica fa crescere le preoccupazioni, tanto più che la domanda aumenterà con i progressi dell’intelligenza artificiale.
Leggi anche | Articolo riservato ai nostri abbonati ChatPlus: “il tallone d’Achille dell’intelligenza artificiale è il suo consumo energetico“
Quest’anno, l’operatore pubblico della rete elettrica irlandese EirGrid ha previsto l’emergere di “sfide di approvvigionamento elettrico” nel corso del prossimo decennio, a causa in particolare di una “crescita della domanda trainata dai grandi utilizzatori di energia e dai data center”.
Entro il 2028, i data center dovrebbero consumare quasi il 30% dell’elettricità irlandese, secondo un rapporto dell’Agenzia internazionale dell’energia pubblicato a gennaio. Giganti internazionali della tecnologia come Google, Meta, Amazon e TikTok gestiscono già alcuni degli oltre ottanta data center in Irlanda, con diverse estensioni o nuove installazioni in progetto.
Leggi anche | TikTok aprirà in Irlanda il suo primo data center per i suoi utenti europei

Publicato il
Tempo di lettura : 2 min

Fonte: www.francetvinfo.fr
Ecco l’ultimissima classifica degli smartphone con il punteggio AnTuTu più alto. L’applicazione di benchmark aggiorna continuamente la sua classifica dei migliori smartphone: ecco l’ultima a metà dell’anno 2024.
- Asus ROG Phone 8 Pro : 2 113 236 punti ;
- Nubia Red Magic 9 Pro : 2 075 567 punti ;
- iQOO 12 : 2 034 885 punti ;
- Vivo X100 Ultra : 1 991 625 punti ;
- Nubia Z60 Ultra : 1 957 438 punti;
- iQOO Neo9S Pro : 1 948 003 punti ;
- Xiaomi 14 Ultra : 1 945 589 punti ;
- Redmi K70 Pro : 1 904 233 punti ;
- OnePlus 12 : 1 738 936 punti ;
- Samsung Galaxy S24 Ultra : 1 770 105 punti ;
- Honor Magic 6 Pro : 1 621 717 punti ;
- OnePlus 12R : 1 549 354 punti;
- Xiaomi Poco F6 Pro : 1 547 022 punti ;
- Apple iPhone 15 Pro : 1 510 614 punti ;
- Realme GT6 : 1 501 830 punti.
L’Asus ROG Phone 8 Pro Edition // Fonte: Chloé Pertuis per Frandroid
Per una classifica più esaustiva che comprenda altri benchmark, ecco una classifica dei cinque modelli più potenti testati da noi.
| Modelli | Asus ROG Phone 8 Pro | Xiaomi 14 Ultra | OnePlus 12 | Samsung Galaxy S24 Ultra | Honor Magic 6 Pro |
|---|---|---|---|---|---|
| AnTuTu 10 | 2105923 | 1970066 | 1745523 | 1875639 | 1726131 |
| AnTuTu CPU | 442704 | 432064 | 389237 | 457922 | 315555 |
| AnTuTu GPU | 880348 | 808656 | 749210 | 741621 | 813221 |
| AnTuTu MEM | 427773 | 403570 | 334903 | 366871 | 352890 |
| AnTuTu UX | 355098 | 325776 | 275512 | 309225 | 244465 |
| PC Mark 3.0 | 21763 | 16890 | 12979 | 17957 | 17640 |
| 3DMark Wild Life Extreme | 5178 | 4867 | 4844 | 4571 | 5164 |
| 3DMark Wild Life Extreme framerate moyen | 31 FPS | 29.15 FPS | 29.01 FPS | 27.38 FPS | 30.92 FPS |
| GFXBench Aztec Vulkan/Metal high (onscreen / offscreen) | 122 / 90 FPS | 67 / 86 FPS | 60 / 62 FPS | 99 / 83 FPS | 92 / 93 FPS |
| GFXBench Car Chase (onscreen / offscreen) | 135 / 156 FPS | 71 / 153 FPS | 60 / 114 FPS | 105 / 132 FPS | 99 / 154 FPS |
| GFXBench Manhattan 3.0 (onscreen / offscreen) | 165 / 378 FPS | 120 / 357 FPS | 60 / 313 FPS | 120 / 338 FPS | 120 / 354 FPS |
| Geekbench 6 Single-core | 2213 | 2261 | 1138 | 1985 | 2189 |
| Geekbench 6 Multi-core | 6973 | 6869 | 5455 | 6409 | 6800 |
| Geekbench 6 Compute (Vulkan) | 16583 | 16057 | 16190 | 17263 | 16256 |
| Lecture / écriture séquentielle | N/C | 990 / 1200 Mo/s | 833.48 / 886.84 Mo/s | 2500 / 1190 Mo/s | 969 / 1024 Mo/s |
Vedere più benchmark
A cosa serve tanta potenza?
La domanda è legittima: a cosa serve avere così tanta potenza su uno smartphone? Andare oltre non è necessariamente utile, poiché le applicazioni si avvieranno sempre alla stessa velocità. Inoltre, più potenza significa più energia consumata: i produttori che fanno di tutto per offrire le migliori prestazioni sacrificano inevitabilmente l’autonomia.
Innanzitutto, più potenza significa migliori prestazioni nei giochi video impegnativi, in 3D e con grafica avanzata. Questo consente di spingere la grafica al massimo, mantenendo una buona fluidità (abbastanza FPS). Lo vediamo con giochi come Fortnite o Genshin Impact, che testiamo spesso nei nostri esami degli smartphone.
L’Asus ROG Phone 8 Pro Edition // Fonte: Chloé Pertuis per Frandroid
Un altro uso che si sta sviluppando sempre di più è quello dell’intelligenza artificiale generativa. I marchi stanno integrando sempre più strumenti simili a ChatPlus o Dall-E, ma che funzionano localmente. Questo permette di riassumere o scrivere email, creare sfondi, modificare immagini, ecc. Per questo, è necessaria molta potenza bruta ed è ciò che offrono gli smartphone di fascia alta o i cosiddetti smartphone da gaming. Più potenza consente di avere strumenti che funzionano più rapidamente.
Fonte: www.frandroid.com

Decidere di cimentarsi con l’intelligenza artificiale è solo il punto di partenza. Se avete intenzione di utilizzare l’IA generativa nella vostra azienda, dovrete assicurarvi di disporre di una piattaforma che vi permetta di sfruttare i dati in modo sicuro ed efficiente.
Questo tipo di piattaforma può essere fornito da un fornitore tecnologico esterno. Allora, come distinguere i buoni partner dai cattivi quando si tratta di IA? E come si presenta un buon partner tecnologico?
Tre dirigenti ci offrono la loro prospettiva.
1. Concentratevi sulle vostre specifiche esigenze di utilizzo
Carter Cousineau, vicepresidente della governance dei dati presso Thomson Reuters, riconosce che è difficile distinguere i buoni attori dai cattivi, soprattutto nei settori che si sono sviluppati a un ritmo rapido negli ultimi 18 mesi.
“Per quanto riguarda l‘IA generativa, ora va in tutte le direzioni”, dice. “C’è molto clamore e sono molto curiosa di vedere quali casi d’uso rimarranno”. L’entusiasmo è tale che Gartner ha recentemente collocato l’IA generativa al vertice delle aspettative eccessive nel suo Hype Cycle for Emerging Technologies, 2023.
Secondo l’analista, l’ampiezza e l’adozione rapida dei programmi di IA generativa annunciano una nuova ondata di produttività. La signora Cousineau ritiene che i professionisti dovrebbero cavalcare questa ondata riflettendo attentamente su cosa significhi l’implementazione dell’IA e dei grandi modelli di linguaggio (LLM) per la loro azienda. “La prima domanda che pongo a molti professionisti è: ‘Avete bisogno di un LLM?’. Perché il costo di un tale modello può essere molto elevato. Quindi bisogna assicurarsi che sia un’area in cui vale la pena investire”.
Il punto di partenza dell’investimento deve essere un’analisi di fattibilità chiara
Come per qualsiasi altra spesa di rilievo, il punto di partenza dell’investimento deve essere un’analisi di fattibilità chiara.
La signora Cousineau indica che Thomson Reuters sta esplorando casi d’uso e che il suo team lavora per assicurarsi che la governance dei dati sia prioritaria. “Esaminiamo questi strumenti dal punto di vista dell’etica e della mitigazione dei danni”, dice. “In base al caso d’uso, analizziamo cosa succede e cerchiamo di mitigare rapidamente i problemi potenziali.”
Thomson Reuters ha già stabilito alcuni partenariati con fornitori chiave. Le informazioni dell’azienda sono conservate nel Snowflake Data Cloud. La signora Cousineau menziona anche la partnership nascente con Microsoft Copilot. “Siamo nelle ultime fasi di sviluppo”, dice.
“Anche quando utilizziamo gli LLM internamente, è molto importante che il nostro personale abbia un ambiente sicuro per utilizzare questa tecnologia. Consideriamo quindi le cose dal punto di vista dei nostri clienti esterni e dei nostri dipendenti, e cerchiamo di supportare tutti gli ambienti LLM.”
2. Trovare un partner flessibile
Tulia Plumettaz, direttrice del machine learning presso Wayfair, riconosce che una delle questioni spinose è se sia meglio impegnarsi presto o adottare un approccio attendista.
Se vi impegnate troppo presto, rischiate di spendere troppo con un partner che sarà superato man mano che il mercato evolve. D’altro canto, se aspettate troppo, i vostri concorrenti potrebbero lasciarvi indietro.
Aggiungendo una serie di altre considerazioni, come il lock-in proprietario dei fornitori e le preoccupazioni legate allo sfruttamento dei dati aziendali, i dirigenti aziendali si trovano di fronte a un dilemma…
“Ci sono grandi ostacoli e domande sulla proprietà dei dati, come sapere a chi appartiene l’asset e se i grandi fornitori utilizzeranno i vostri dati per addestrare i loro modelli o meno. Questo è un punto su cui ci concentriamo. Stiamo imparando a conoscere il panorama in termini di dati e legalità.”
Tulia Plumettaz spiega come la sua azienda lavori con Snorkel AI per migliorare l’esperienza di ricerca online dei consumatori. E proprio come Wayfair si sta avvicinando al machine learning, l’azienda esplora altri settori. “Stiamo esaminando le applicazioni dell’IA conversazionale”, dice. “Ci sono casi d’uso che pensiamo di poter integrare rapidamente.”
Lavorano con Snorkel per sviluppare modelli fondamentali che aiuteranno l’azienda a utilizzare i suoi dati principali, come i prodotti venduti e le loro caratteristiche. Con questa struttura in atto, Wayfair potrà pensare a come altri specialisti di IA potrebbero aiutarla a raggiungere i suoi obiettivi a lungo termine.
“Stiamo cercando di capire come si evolve questo settore mentre cerchiamo i frutti più facili da cogliere!”, spiega.
3. Restare aperti alla sperimentazione
Lalo Luna, responsabile globale della strategia presso Heineken, afferma che ChatPlus non è l’unico attore nell’IA. “Penso che le aziende debbano preoccuparsi di più di come adotteranno l’IA, ma anche il machine learning tradizionale e altri processi ad alta intensità di dati”, dichiara.
Questo è ciò che Lalo Luna prioritizza presso Heineken. Il suo team utilizza la piattaforma dello specialista Stravito per condividere concetti internamente. Una piattaforma conosciuta come Knowledge & Insight Management (KIM).
Anche se il potere dei dati è riconosciuto dai suoi pari, il signor Luna pensa che alcune aziende siano ancora in ritardo nel comprendere il valore delle informazioni.
Piuttosto che aspettare l’emergere dei leader di mercato, afferma che è ora di iniziare a cercare e collaborare con i partner che li aiuteranno a progredire. “I dati e l’IA sono già un vantaggio competitivo”, dichiara Luna.
“I dirigenti aziendali non devono avere paura della tecnologia. Devono preoccuparsi di come migliorare le competenze del loro personale e costruire ecosistemi tecnologici che aiuteranno non solo i loro consumatori, ma anche il loro personale a prendere decisioni migliori.”
Stravito ha recentemente annunciato l’aggiunta di un motore di IA generativa proprietario per fornire alle aziende informazioni verificate.
Secondo il signor Luna, è importante restare aperti alle nuove idee in materia di IA. E prevede che Stravito sarà un attore chiave per aiutare la sua azienda a trarre il massimo dai migliaia di rapporti che detiene.
“Dobbiamo buttarci”, dichiara. “Per avere successo, bisogna passare alla fase di sperimentazione.”
Fonte: www.zdnet.fr
OpenAI è in piena espansione. L’azienda lancia regolarmente nuovi modelli di IA sul mercato. Giovedì scorso, OpenAI ha svelato il suo ultimo modello, GPT-4o mini.
Cosa potete aspettarvi? La vostra esperienza con GPT-4o mini non dovrebbe essere molto diversa da quella con GPT-4o. Il modello ha prestazioni simili a quelle del suo predecessore nei test di riferimento che valutano il ragionamento, le competenze in matematica e in codifica, nonché il ragionamento multimodale.

Le differenze dovrebbero essere più marcate quando GPT 4o mini viene confrontato con altri modelli più piccoli come:
- Gemini Flash
- Claude Haiku
- GPT-3.5 Turbo
Modelli che GPT-4o mini supera ripetutamente nei test di riferimento.
Se sei pronto a scoprirlo da solo, continua a leggere per conoscere i due modi semplici per accedere a GPT-4o mini già da oggi.
-
Accedi a ChatPlus
Quando OpenAI ha lanciato GPT-4o mini, l’azienda ha indicato che gli utenti di ChatPlus Free, Plus e Team avrebbero avuto accesso a GPT 4o mini al posto di GPT-3.5. Tuttavia, se hai visitato ChatPlus da allora, ti sarai forse chiesto perché hai visto GPT-3.5 – invece di GPT 4o – elencato in cima al chatbot. Infatti, per accedere a GPT 4o è necessario effettuare l’accesso.
Anche se OpenAI rende l’accesso al suo chatbot gratuito, è necessario effettuare il login per accedere alle ultime offerte dell’azienda, come GPT 4o mini, per gli utenti gratuiti. Se non hai un account, è facile crearne uno. Puoi utilizzare i tuoi account Google, Microsoft o Apple esistenti.
Per iniziare:
- Visita il sito ChatPlus
- Clicca su “Accedi” o “Registrati” nell’angolo in alto a destra, segui le istruzioni e inizia a chattare.
Se sei un utente di ChatPlus Plus, puoi anche accedere al modello effettuando il login, cliccando sul pulsante in alto a destra e selezionando GPT-4o mini.
-
OpenAI Playground
OpenAI Playground è la piattaforma dell’azienda che consente agli sviluppatori di provare diversi LLM di OpenAI e di adattarli alle loro esigenze. È facile da usare e aperta a tutti, sviluppatori e non sviluppatori. L’inconveniente è che gli utenti dovranno pagare per utilizzarla. Ma la piattaforma è particolarmente utile per gli sviluppatori, poiché consente loro di adattare il modello ai propri casi d’uso specifici. Puoi consultare le tariffe qui.
Per provarla, visita il sito OpenAI Playground e accedi utilizzando il tuo account OpenAI (creane uno se non ne hai ancora). Avrai accesso a quella che sembra una versione più elaborata dell’interfaccia abituale di ChatPlus. Sotto “Chat” c’è un pulsante che ti consente di selezionare il LLM che desideri utilizzare. In questo caso, devi selezionare “GPT-4o-mini“.
Hai anche la possibilità di regolare altri parametri di prestazione, come la temperatura, il numero massimo di token, ecc. Se non conosci questi parametri ma desideri saperne di più, passa il cursore su ciascuna categoria per ottenere una breve descrizione.
Poi, digita il tuo testo e premi Invio per scoprire la magia di GPT-4o. Se non hai abbastanza fondi o non ne hai ancora aggiunti, riceverai un messaggio di errore con dei link per aggiungere fondi se lo desideri.
-
You.com
Il maggior vantaggio di You.com è che dispone di tutti gli ultimi LLM sulla sua piattaforma. Questo consente di provare tutti i principali modelli come:
- GPT-4o
- Claude 3.5 Sonnet
- Llama 3
- Gemini 1.5 Pro
Nel giorno stesso in cui OpenAI ha annunciato GPT-4o, You.com lo ha aggiunto alla sua piattaforma, permettendo agli utenti di provarlo gratuitamente.
Come provare You.com?
- Visita You.com
- Clicca su “altro” accanto ai modelli elencati in cima all’area di testo
- Accedi o crea un account
- Seleziona poi GPT 4o nel selettore di modelli e inserisci la tua domanda
Il sistema genera una risposta alla tua domanda utilizzando GPT 4o mini, che puoi vedere grazie a una designazione sotto la risposta.
You.com nota che i modelli di terze parti, come GPT 4o mini, sono migliorati da You.com, il che significa che l’esperienza potrebbe non essere la stessa di quella che avresti con il chatbot nativo. Tuttavia, la comodità di accedere a tutti i modelli in un unico posto potrebbe superare le sottili differenze tra You.com e il chatbot reale.
Buona conversazione!
Fonte: www.zdnet.fr
OpenAI ha chiuso una falla che permetteva di smascherare i bot sui social network! La famosa istruzione “ignora i prompt precedenti” seguita da una richiesta stravagante non sarà più di alcun aiuto per stanarli.
I bot che proliferano sui social network, in particolare su X/Twitter, erano abbastanza facili da individuare prima dell’avvento dell’IA generativa: i loro messaggi erano spesso copiati/incollati da un account all’altro, con errori di ortografia e grammatica, senza dimenticare discorsi poco elaborati. Ora è più complicato, grazie o a causa di ChatPlus e degli altri chatbot che continuano a migliorare.
La caccia ai bot sarà più difficile
Tuttavia, un trucco permette di rilevarli abbastanza facilmente: rispondere a un messaggio di un account sospettato di essere un bot con una richiesta del tipo “ignora i prompt precedenti” e poi chiedere qualcosa che non ha nulla a che fare, come “dammi una ricetta per una crostata di fragole”. È così che l’account di “Milica Novakovic”, un’ardente militante di estrema destra, è stato smascherato lo scorso giugno: si trattava di un bot.
Ah oui. D’accord… <a href=”https://twitter.com/malopedia/status/1671794923908306944″> François Malaussena (@malopedia)
Questo trucco sarà (purtroppo?) presto un ricordo del passato. OpenAI ha infatti trovato il modo di migliorare le difese dei bot contro questo tipo di istruzioni. I modelli che integreranno questa protezione — a partire da GPT-4o mini, lanciato questa settimana — risponderanno meno favorevolmente alle istruzioni che “rompono” la richiesta iniziale.
“Se c’è un conflitto, [il bot] deve prima seguire il primo messaggio”, spiega Olivier Godement a The Verge. Il responsabile della piattaforma API di OpenAI precisa che questo nuovo sistema “insegna essenzialmente al modello a seguire e conformarsi veramente al messaggio del sviluppatore”. Quando un bot individuerà una “richiesta errata” del tipo “ignora le istruzioni precedenti”, fingerà ignoranza o risponderà che non può aiutare l’utente.
OpenAI sta lavorando su agenti automatizzati capaci, per esempio, di scrivere email al tuo posto; un pirata potrebbe chiedere al bot di ignorare le istruzioni precedenti e di inviare il contenuto della casella di posta a un terzo. Si capisce che l’azienda voglia chiudere a doppia mandata le possibilità di jailbreak, e poco importa per la caccia ai bot sui social network.
???? Per non perdere nessuna notizia, seguiteci su Google News e WhatsApp.
Fonte: The Verge


