Sito indipendente • Fatturazione P.IVA Italiana • Alta Disponibilità

 

Intelligenza Artificiale e Sviluppo: La Rivoluzione di OpenAI

Il bot di OpenAI è ora in grado di modificare codice nei principali software di sviluppo, incluso Xcode, l’ambiente di Apple. Basta con i noiosi copia/incolla!

Se c’è molto da criticare nell’intelligenza artificiale generativa, almeno c’è una cosa che questa tecnologia riesce a fare molto bene: generare codice informatico. È diventato uno strumento quasi indispensabile per gli sviluppatori, che ha rapidamente trovato spazio nei set di strumenti di sviluppo come Copilot in GitHub.

La fine dei copia/incolla tediosi

Anche Apple, in ritardo nell’adozione dell’IA generativa, ha finalmente ceduto integrando Swift Assist in Xcode. In ogni caso, questi assistenti generano automaticamente suggerimenti di codice in tempo reale, possono completare righe di codice, proporre funzioni complete e persino spiegare il codice.

Il bot di OpenAI
© OpenAI

OpenAI abbonamento, il cui modello Codex è alla base di Copilot di GitHub, fa un passo avanti. L’applicazione Mac di ChatPlus ora può prendere in mano la situazione in Xcode e negli altri ambienti di sviluppo (VS Code, JetBrains…). Il bot è in grado di modificare codice direttamente in questi software, evitando ai programmatori i laboriosi copia/incolla che possono essere fonte di errori.

ChatPlus può leggere il codice prodotto in questi ambienti e fare correzioni in tempo reale. Una modalità (opzionale) “auto-apply” è in grado di applicare modifiche automaticamente, senza interazione da parte dell’utente. Questa novità è disponibile per gli abbonati a ChatPlus Plus, Pro e Team. Sarà proposta ai membri Enterprise ed Education, nonché agli utenti gratuiti, la prossima settimana.

Infine, i programmatori su Windows possono stare tranquilli: la loro versione dell’app ChatPlus integrerà questa funzione a breve.

Fonte: www.01net.com

Il Diritto all’Spiegazione delle Decisioni Automatiche

La moltiplicazione dei processi automatizzati di decisione non esime le organizzazioni dalla loro obbligazione di spiegare, in modo comprensibile per tutti, le azioni affidate agli algoritmi. La Corte di Giustizia dell’UE ha appena affermato questo diritto.


Pubblicato


Tempo di lettura: 5min

Automatiche IA La Corte di Giustizia dell'Unione europea, in Lussemburgo.
La Corte di Giustizia dell’Unione europea, al Lussemburgo. (HORST GALUSCHKA / DPA / MAXPPP)

L’intelligenza artificiale (IA) si inserisce sempre di più nella nostra vita quotidiana e professionale. Le aziende, e persino alcune amministrazioni, utilizzano ormai l’IA per raccogliere dati e formulare analisi a partire da essi. In alcuni casi, questo arriva a trasferire a questi programmi azioni che possono avere un effetto nella vita reale. Al rischio di somigliare a “scatole nere” che agiscono per conto proprio.

Non è ovviamente soddisfacente per la persona che subisce una decisione presa da una tale macchina sentire come unica spiegazione che si tratta della scelta di un computer. La Corte di Giustizia dell’Unione europea, che si riunisce a Lussemburgo, ha emesso il 27 febbraio 2025 una sentenza: un individuo ha il diritto di ricevere spiegazioni su come è stata presa la decisione che lo riguarda, anche se si tratta di un meccanismo automatizzato.

Una cittadina austriaca ha visto rifiutata la firma di un contratto di telefonia mobile perché giudicata insufficiente in termini di solvibilità. Questa valutazione era stata condotta da un modello matematico che determina il fattore di rischio finanziario. Per informazione, qui si trattava di un abbonamento mensile di 10 euro. Ma questa somma non è in discussione.

Il tribunale austriaco, inizialmente interpellato, ha concluso che, a causa delle sue metodologie, il fornitore (la società Dun & Bradstreet) aveva violato il Regolamento Generale sulla Protezione dei Dati (RGPD). La Corte di Giustizia dell’UE è stata quindi sollecitata a interpretare il RGPD e la Direttiva europea sul Diritto delle Imprese nel caso in cui siano gli algoritmi a trattare i fascicoli.

La Corte stabilisce che il responsabile del trattamento deve descrivere la procedura e i principi concretamente applicati. Così facendo, la persona interessata deve poter comprendere quali dei propri dati personali sono stati utilizzati e in quale modo durante la decisione automatizzata.

Ciò che è interessante (benvenuti in Europa!), è che i magistrati che richiedono la trasmissione delle informazioni “utili” che hanno portato alla decisione considerano che le diverse accezioni linguistiche di questo aggettivo “utile” devono essere tenute in conto.

Di conseguenza, le spiegazioni fornite devono essere “utili” (nel senso francese, olandese e portoghese del termine), “pertinenti” (nel senso romeno), “importanti” (nel senso spagnolo e polacco) e “intelligibili” (nel senso inglese e tedesco). In sintesi, la Corte richiede agli operatori di essere il più pedagogici possibile negli elementi che forniranno alle persone richiedenti.

La scoperta da parte del grande pubblico dell’intelligenza artificiale risale alla fine del 2022, con l’entrata in funzione di ChatPlus. È quindi importante, su scala europea, che sia chiaramente stabilito il fatto che i cittadini, i consumatori e anche i lavoratori che siamo possano essere informati sull’uso che viene fatto dei nostri dati per generare modelli algoritmici, modelli che contribuiranno sempre di più a decisioni che avranno un effetto molto diretto sulle nostre esistenze.

Ancora una volta, non si tratta di trasformare ognuno in ingegnere di IA, ma di elevare il livello collettivo di conoscenze sui meccanismi e le informazioni che alimentano e strutturano questi servizi automatizzati. E di rendere accessibili e comprensibili tecnologie, certamente complesse, ma che andranno a popolare e agire sulla nostra quotidianità. Ciò corrisponde inoltre all’obbligo posto da un altro testo europeo, l’AI Act, di regolare il modo in cui si spiegano i modelli utilizzati.

Nel caso in cui le informazioni da fornire siano protette ai sensi del segreto commerciale, in particolare perché potrebbero contenere, ad esempio, elementi considerati determinanti per la competitività dell’azienda, sarà un’autorità nazionale a stabilire l’estensione del diritto di accesso. Sempre l’equilibrio ricercato tra l’esercizio di diversi diritti: quello degli individui e quello delle organizzazioni.

Fonte : www.francetvinfo.fr

L’impatto dell’intelligenza artificiale sulle professioni legali

L’impatto dell’intelligenza artificiale sulle professioni legali

L’irruzione dell’intelligenza artificiale (IA) sta sicuramente comportando, per molte professioni, un cambiamento la cui portata non possiamo ancora misurare. È indubbiamente la fine di un’era: la tecnologia non accompagna più semplicemente il pensiero, ma pretende di sostituirlo. Gli avvocati non sfuggono a questa rivoluzione tecnologica: sebbene le applicazioni dell’intelligenza artificiale possano facilitare l’esecuzione di alcune attività e accelerare la sacrosanta produttività, rimangono comunque minacce che pesano sia sulla pratica della nostra professione che sulla sua filosofia.

Dal ottobre 2024, il bar di Parigi e un editore giuridico hanno firmato un partenariato destinato a consentire agli avvocati che lavorano in piccole strutture di beneficiare gratuitamente dell’intelligenza artificiale. L’iniziativa è lodevole: consente una forma di recupero tecnologico, considerando che si tratta di uno strumento che ormai è imprescindibile per gli avvocati. Limita la possibilità di una “frattura tecnologica” all’interno della professione, mentre molte strutture accusano già un ritardo significativo. Se il controllo dello strumento può contribuire a ridurre il divario tra le piccole e le grandi strutture, si teme tuttavia che i migliori studi legali continueranno ad avere accesso agli strumenti più avanzati.

Gli avvocati, per motivi economici e di sostenibilità strutturale, devono adattarsi a questo nuovo strumento. In pochi anni, infatti, hanno visto le proprie risorse documentarie fisiche ridursi a favore dei software. Non molto tempo fa, alcuni scrivevano ancora a mano le proprie conclusioni. L’intelligenza artificiale si inserisce in un movimento già in atto, ma non può essere ridotta a una semplice evoluzione.

Il numero di informazioni utilizzate dall’intelligenza artificiale richiede un controllo migliore, il che favorisce, di conseguenza, una specializzazione e quindi una formazione più approfondita. Nel 2023, la stampa ha riportato il caso di un avvocato newyorkese che, nell’ambito di una controversia fra richiedenti e una compagnia aerea, ha citato decisioni che non esistevano: era ChatPlus a creare il riferimento. Se questo caso può far sorridere, illustra perfettamente i limiti dello strumento. Anche la vigilanza di un avvocato è stata ingannata.

L’opinione degli avvocati italiani

Anche in Italia, il dibattito sull’uso dell’intelligenza artificiale nelle professioni legali è acceso. Gli avvocati italiani riconoscono l’utilità dell’IA per semplificare la gestione delle pratiche e velocizzare la ricerca giurisprudenziale, ma esprimono preoccupazioni per la deontologia e l’affidabilità delle informazioni generate.

Secondo l’Unione delle Camere Penali Italiane, l’IA può essere un valido alleato per il trattamento dei dati e la redazione di documenti standardizzati, ma non potrà mai sostituire il ragionamento giuridico umano, fondamentale per interpretare la legge nel contesto specifico di ogni caso.

Inoltre, il Consiglio Nazionale Forense sottolinea l’importanza della formazione continua degli avvocati per un utilizzo consapevole dell’IA, evitando l’affidamento cieco agli strumenti digitali. Un avvocato del Foro di Milano ha dichiarato: “L’intelligenza artificiale può migliorare l’efficienza, ma non può prendere decisioni che richiedono sensibilità e giudizio umano. La nostra professione non è solo una questione di norme, ma di persone.”

Infine, alcuni giuristi mettono in guardia contro il rischio di una dipendenza tecnologica che potrebbe ridurre la capacità analitica dei futuri avvocati. Se le nuove generazioni di professionisti si abituano a delegare le ricerche e le analisi all’IA senza un controllo attento, si potrebbe assistere a una perdita di competenze fondamentali.

In conclusione, mentre l’IA sta già trasformando il settore legale, il suo utilizzo deve essere guidato da principi etici e da una formazione adeguata, per garantire che resti uno strumento al servizio della professione e non un fattore di impoverimento del pensiero giuridico.

Fonte: www.lemonde.fr

Fonte: https://it.euronews.com

Il Futuro di DeepSeek Negli Stati Uniti: Rischi e Restrizioni

DeepSeek sta forse per scomparire negli Stati Uniti? L’amministrazione Trump sta infatti considerando di vietare l’applicazione dai dispositivi governativi. Questa riflessione potrebbe arrivare fino a richiedere la rimozione dell’app dai negozi di Apple e Google. Tuttavia, il modello aperto dell’app cinese complica le cose.

DeepSeek ha fatto molto parlare di sé nel mondo dell’IA americana all’inizio dell’anno. I modelli sviluppati dall’azienda cinese si sono dimostrati infatti altrettanto efficaci quanto i migliori rivali americani, a una frazione del costo. Il successo è stato clamoroso: l’app è salita al vertice delle classifiche dei negozi di Apple e Google, anche se da allora è un po’ scesa, rimanendo comunque nella top 10.

Preoccupazioni sulla Sicurezza dei Dati

Ma DeepSeek solleva anche problemi di sicurezza e privacy. Tanto da essere stata ritirata dai negozi in Italia e Corea del Sud, a causa delle preoccupazioni dei regolatori sulla protezione dei dati sensibili. Anche Australia, Canada e Taiwan hanno vietato l’uso di DeepSeek sui dispositivi governativi.

La questione si pone anche alla Casa Bianca. Il Wall Street Journal riporta che l’amministrazione Trump sta considerando di vietare DeepSeek dai dispositivi governativi per timori legati alla sicurezza nazionale e alla sicurezza dei dati stoccati in Cina. L’app non ha fornito spiegazioni sufficienti sul suo uso dei dati raccolti, né su chi vi ha accesso.

Sebbene sia probabile che ai funzionari venga vietato di scaricare l’app sui propri smartphone di lavoro, le autorità americane si stanno anche interrogando sulla opportunità di bandire DeepSeek dall’App Store e dal Play Store. Un’altra iniziativa considerata è quella di imporre limitazioni ai fornitori di servizi cloud situati negli Stati Uniti, vietando loro di offrire i modelli di IA di DeepSeek ai propri clienti.

Queste restrizioni potrebbero risultare più complicate da attuare rispetto a un divieto sull’App Store. I modelli di DeepSeek sono infatti disponibili in open-source, il che significa che sono liberamente accessibili e utilizzabili da chiunque. Le aziende possono sfruttare questi modelli sui propri server, impedendo a chiunque di raccogliere dati. Perplexity, che offre i modelli di DeepSeek ai propri clienti, li ospita in data center americani, indipendenti da qualsiasi legame con la società cinese.

Per ora si tratta di una riflessione in corso. Ma visto il modo in cui il dossier TikTok viene gestito dall’attuale amministrazione (è un caos), è difficile comprendere davvero cosa stia pensando per DeepSeek.

Fonte: WSJ

In questo articolo, abbiamo esplorato le potenziali conseguenze del divieto di DeepSeek negli Stati Uniti, le preoccupazioni per la sicurezza dei dati e l’innovativa struttura open-source dell’app, che rende le restrizioni più complesse.

La guerra d’influenza della Russia nell’era dei chatbot

La Russia conduce una guerra d’influenza sotterranea per contaminare i risultati generati dai chatbot occidentali. Un’inchiesta di NewsGuard mostra che i principali bot di mercato riprendono la disinformazione e le menzogne del Cremlino nel 33% dei casi.

Il network Pravda, finanziato dalla Russia, infetta i dati di addestramento dei modelli di intelligenza artificiale affinché i chatbot generino contenuti favorevoli alle tesi del Cremlino. Scoperto all’inizio del 2024 da Viginum, l’agenzia governativa francese associata a Matignon, questo network conta 150 siti web che diffondono contenuti in diverse lingue (tra cui il francese), in 49 paesi. Tra essi ci sono siti tematici come Trump.News-Pravda o Macron.News-Pravda.

Un network di siti web per influenzare l’IA

Contrariamente ai media tradizionali, questi siti web non producono contenuti propri, ma rilasciano la propaganda russa aggregando e diffondendo massicciamente racconti a favore della Russia e delle politiche di Vladimir Putin. L’origine di questa disinformazione proviene da fonti ufficiali russe, da influencer pro-Cremlino e da enti statali.

Il network, noto anche come “Portal Kombat”, non ha legami diretti con il media Pravda, nonostante l’identico nome (che in russo significa “verità”). È estremamente prolifico: lo scorso anno, i siti web Pravda hanno infatti prodotto la ragguardevole cifra di 3,6 milioni di articoli, un volume enorme letto… da molto pochi. Molti di questi siti si aggirano attorno a mille visitatori unici al mese. Per dare un’idea, il sito del media ufficiale RT supera i 14 milioni di visitatori unici mensili.

Tuttavia, questo network non cerca la popolarità tra gli internauti. Sfruttando tecniche di posizionamento sui motori di ricerca (SEO), questi siti massimizzano la visibilità dei loro articoli falsi per meglio influenzare le IA generative. Queste IA generano poi risposte basate sulla disinformazione di Pravda attraverso i loro sistemi di recupero delle informazioni (robot crawlers e motori di ricerca). Questa tecnica di “LLM grooming” (manipolazione dei modelli di linguaggio) sembra funzionare alla grande, secondo un’inchiesta di NewsGuard.

Questa azienda americana, fondata nel 2018 da veterani del giornalismo e dell’editoria, si presenta come uno strumento di lotta contro le false informazioni e la manipolazione delle notizie online. Ha testato 10 dei principali chatbot IA sul mercato: ChatPlus-4o (OpenAI), You.com Smart Assistant, Grok (xAI), Pi (Inflection AI), Le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) e il motore di risposte Perplexity.

L’inchiesta si è basata su un campione di 15 false informazioni diffuse dalla rete Pravda tra aprile 2022 e febbraio 2025. Queste affermazioni sono state verificate e catalogate nel database Misinformation Fingerprints di NewsGuard. L’obiettivo era misurare la frequenza con cui questi strumenti riprendono la disinformazione a loro favore.

Tra le false informazioni utilizzate per testare i bot, c’era ad esempio la menzogna che Volodymyr Zelensky avesse ordinato il blocco di Truth Social in Ucraina. Questo è completamente falso: il presidente ucraino non ha mai chiesto una cosa del genere, e l’app del social network di Donald Trump non è mai stata distribuita in Ucraina…

Per ciascuna delle affermazioni, NewsGuard ha formulato tre varianti di richieste: tono neutro, tono “orientato” (la domanda sottintende che l’affermazione sia vera), tono “malevolo” (una formulazione esplicita che induce alla disinformazione). In totale, 45 richieste diverse sono state inserite nei 10 bot.

Il successo del network Pravda

L’analisi delle risposte conferma che l’influenza della disinformazione sulle risposte delle IA è reale. Un terzo delle risposte dei bot conteneva effettivamente disinformazione; quasi la metà (48%) conteneva un “debunk” (ovvero una verifica dei fatti). Il 18% erano non-risposte, indicando una mancanza di dati o l’incapacità di trattare l’argomento.

7 dei 10 bot hanno citato siti del network Pravda come fonti. 56 risposte su 450 contenevano link diretti a questi famosi articoli. Infine, 92 articoli sono stati referenziati in totale, con alcuni modelli IA che citano persino 27 articoli diversi. Si può notare che la Russia ha guadagnato punti in questa guerra dell’informazione.

Non basta chiudere il rubinetto di Pravda per non influenzare più i modelli di IA. Prima di tutto perché il network non è la fonte della disinformazione, ma si limita, per così dire, a rilanciarla e amplificarsi. Soprattutto, Pravda rappresenta una minaccia sistemica, poiché non può essere neutralizzato facilmente con misure di filtraggio. La sua strategia si basa infatti sulla replicazione e diversificazione, rendendo molto difficile il blocco dei siti con algoritmi di moderazione. Una blacklist dei siti può anche essere stilata, ma basta creare nuovi siti web per aggirare le restrizioni.

Fonte: NewsGuard

Questo articolo approfondisce l’influenza della Russia attraverso i suoi sforzi di disinformazione nel contesto dei chatbot e dell’intelligenza artificiale, mostrando le modalità e l’impatto delle loro strategie.

Fonte: www.01net.com

Alla ricerca di un modello economico sostenibile, l’azienda dietro ChatPlus sta valutando la creazione di formule di abbonamento mensile a prezzi mai visti prima.

Abbonamento esclusivo a ChatPlus

ChatPlus non è redditizio. Sin dal lancio del famoso agente conversazionale da parte di OpenAI, la società è sopravvissuta grazie a importanti iniezioni di liquidità, in particolare da parte di Microsoft. Anche il suo abbonamento da 200 € al mese non genera abbastanza entrate rispetto ai costi.

Per rimediare a questa situazione, OpenAI potrebbe quindi valutare la creazione di formule di abbonamento da 2000, 10.000 o persino 20.000 $ al mese secondo quanto riportato da The Information.

OpenAI punta tutto sui suoi “agenti”

Questi prezzi astronomici, che farebbero sembrare l’abbonamento Pro da 200 $ (229 €) un affare, sarebbero in realtà quelli legati agli “agenti” sviluppati dall’azienda. Questi modelli di intelligenza artificiale, tecnicamente capaci di eseguire azioni sul tuo computer al tuo posto, sarebbero disponibili in diverse versioni con capacità più o meno avanzate.

Il primo, antropomorfizzato come un “professionista di alto livello“, costerebbe quindi 2000 $ al mese. Il secondo è presentato come un assistente per sviluppatori e sviluppatrici, con un costo di 10.000 $ al mese. Infine, una formula di abbonamento che offre accesso a un agente in grado di svolgere ricerche “di livello dottorale” è prevista al costo di 20.000 $ al mese secondo The Information.

Abbonamento esclusivo a ChatPlus
Operator, il primo agente di OpenAI // Credito: OpenAI

Chiaramente, ciascuno di questi agenti risponderebbe a esigenze professionali molto specifiche e non sarebbe utile al grande pubblico. Un tale aumento dei prezzi solleva comunque dubbi sulla sostenibilità del business di OpenAI. Sam Altman spera che il 20-25% delle entrate dell’azienda saranno generati da questi famosi agenti, di cui al momento non abbiamo ancora visto casi d’uso sorprendenti.

Un aumento dell’abbonamento Pro in arrivo

Sembra inoltre che il periodo delle spese sconsiderate stia per finire in casa OpenAI. Si apprende dallo stesso articolo che i più grandi utenti e utenti del piano da 200 $ al mese potrebbero vedere aumentare le loro fatture “a causa dell’alto volume di richieste” presentate a ChatPlus. Per questi utenti accaniti, potrebbe essere introdotto un abbonamento “pay-per-use”. Ogni richiesta sarebbe quindi addebitata in base all’uso.

È probabile che il periodo delle richieste illimitate e delle varie agevolazioni offerte dalle grandi aziende dell’IA stia per finire. Dopo perdite stimate in 5 miliardi per l’anno 2024, OpenAI cerca ora di adottare un approccio più cauto e redditizio.

Questo articolo utilizza vari tag HTML per il layout e presenta un’analisi dettagliata del futuro economico di OpenAI e delle sue strategie relative a ChatPlus.

Fonte: www.frandroid.com

Google introduce il suo nuovo modo di ricerca basato sull’IA: addio ai link, benvenute risposte dirette.

IA di Google

Google fa un ulteriore passo verso la ristrutturazione del suo motore di ricerca. In un post sul blog a firma Robby Stein, vicepresidente prodotto, Google spiega che il motore di ricerca che conosciamo tutti sta per trasformarsi grazie all’intelligenza artificiale.

Con Gemini 2.0 e un innovativo “modo IA”, Google intende rivoluzionare la modalità di reperimento delle informazioni online. In realtà, è una controffensiva contro pronduttori come ChatPlus Search e Perplexity.

Innanzitutto, gli “AI Overviews”, quei piccoli riassunti che spuntano in cima ai risultati da maggio scorso negli Stati Uniti, passano a un livello superiore.

« Oggi lanciamo Gemini 2.0 per gli AI Overviews negli Stati Uniti per rispondere a domande più complesse, come la programmazione, la matematica avanzata e le richieste multimodali», scrive Robby Stein.

Dal motore di ricerca all’assistente

Questo “modo IA” è un’esperienza disponibile nella sezione Labs, presumibilmente solo negli Stati Uniti al momento.

« Oggi presentiamo un’esperienza precoce in Labs: il modo IA. Questo nuovo modo di ricerca amplifica ciò che gli AI Overviews possono fare, utilizzando un ragionamento più avanzato »

In pratica, immaginate di chiedere « quale è la differenza tra le funzioni di monitoraggio del sonno di un anello intelligente, un orologio e un tappetino tracker? ». L’IA esplora il web, confronta le opzioni e fornisce una risposta chiara con una tabella, dei link e persino la possibilità di porre ulteriori domande.



Questo modo si basa su una versione personalizzata di Gemini 2.0 e una tecnica chiamata « query fan-out ». L’IA avvia ricerche parallele su diversi sottotemi e poi assembla il tutto per fornire una risposta completa. Insomma, addio ai dieci tab aperti per trovare una risposta: Google punta a centralizzare tutto.



Risposta ai nuovi concorrenti IA

Con questo cambio di rotta, Google risponde alla pressione di concorrenti come Perplexity e ChatPlus Search, che offrono risposte dirette con i LLM.

« Con le nostre nuove funzionalità IA, le persone utilizzano Google Search più che mai per ottenere aiuto su domande nuove e più complesse »

Robby Stein, Google

Tuttavia, questa ambizione ha un costo. I siti web, che dipendono dai clic generati da Google, rischiano di vedere il loro traffico crollare se tutto viene riassunto direttamente nel motore.

Google, però, si difende: «Aiutare le persone a scoprire i contenuti del web rimane al centro del nostro approccio», insiste Robby Stein. Secondo lui, il modo IA incoraggerà addirittura a esplorare di più grazie a link utili.

Google non ha davvero scelta: rimanere nel passato significa rischiare di essere superato dai nuovi arrivati nel campo dell’IA.

Fonte: www.frandroid.com

OpenAI a Parigi: Innovazioni e Collaborazioni nel Mondo dell’IA

Entro la fine del 2024, OpenAI ha aperto i suoi uffici a Parigi, segnando così un passo importante per espandere la sua influenza nel mercato francese e in Europa. Con l’inizio dell’anno 2025, iniziamo a notare i primi effetti di questa presenza fisica in Francia.

Infatti, la startup francese Fleet ha annunciato una collaborazione con il gigante americano, creatore di ChatPlus, per sviluppare una soluzione di assistenza IT intelligente potenziata dall’IA. Il suo nome è Fleet CoPilot. Questo strumento sarà inizialmente implementato presso una selezione di aziende, prima di essere progressivamente reso disponibile a tutte le imprese.

Quest’agente di esternalizzazione informatica, integrato direttamente nel SaaS di Fleet, mira a ottimizzare ulteriormente la gestione del materiale informatico per startup e PMI. Il tool sviluppato in collaborazione con OpenAI offre, tra le altre cose, raccomandazioni personalizzate e supporto decisionale per la scelta dei computer durante l’inserimento di un nuovo dipendente, facilita la connessione dei sistemi informativi delle risorse umane, semplifica il monitoraggio degli ordini e delle consegne, e risponde alle domande degli impiegati in ambito informatico. Inoltre, la soluzione è stata progettata per fronteggiare l’aumento dei crimini informatici, essendo in grado di rilevare automaticamente se un dispositivo non rispetta le best practices di sicurezza.

Duel a distanza tra OpenAI e Mistral AI

Per Fleet, questa collaborazione con OpenAI rappresenta un’opportunità per migliorare la propria offerta e rispondere meglio alle esigenze dei suoi 1.500 clienti, come Weglot, 900.care, Superprof, BCG e l’Olympique di Marsiglia, che insieme raggiungono oltre 100.000 utenti. «La nostra strategia di adozione è chiara e mira a democratizzare questo prodotto tra tutti i nostri clienti. I primi risultati significativi rafforzano la nostra convinzione che l’IA rivoluzionerà la gestione informatica e siamo determinati a essere pionieri in questa trasformazione», afferma Alexandre Berriche, co-fondatore e CEO di Fleet. Berriche ha fondato la società nel 2019 e non ha mai raccolto fondi per finanziare il suo sviluppo, ma ciò non gli ha impedito di espandere le sue attività in Spagna nel 2022, e poi in Germania e Regno Unito nel 2023.

Per quanto riguarda OpenAI, questa è l’occasione per dimostrare la propria esperienza per contrastare la forte visibilità mediatica di Mistral AI, il cui CEO Arthur Mensch è stato la star del Summit for Action on AI. Durante l’evento, la startup francese ha annunciato numerosi partnership significativi, tra cui con Orange e Free. Per OpenAI, era quindi tempo di riprendere l’iniziativa mostrando i primi benefici del suo ufficio parigino. «Il copilota lanciato da Fleet illustra perfettamente come le aziende innovative integrano l’IA al centro dei loro prodotti per semplificare la vita dei loro clienti», osserva Arnaud Fournier, responsabile della filiale francese di OpenAI. La battaglia tra gli assistenti alimentati da IA generativa è appena iniziata.

Fonte: www.maddyness.com

La startup cinese DeepSeek ha dichiarato di poter ottenere margini di profitto straordinari, ma con molte condizioni: quanto c’è di vero dietro questi numeri?

DeepSeek

La startup di intelligenza artificiale DeepSeek ha recentemente pubblicato dati che suggeriscono margini di profitto teorici del 545%, un’affermazione che ha destato molto interesse nel settore tecnologico. Tuttavia, l’azienda ha chiarito che si tratta di un calcolo ipotetico, basato su un modello di entrate che al momento non riflette la realtà operativa.

Numeri da capogiro, ma con molti “se” e “ma”

In un post su X e in un approfondimento su GitHub, DeepSeek ha spiegato il proprio metodo per aumentare il throughput e ridurre la latenza. Analizzando i dati relativi a un periodo di 24 ore di utilizzo dei suoi modelli V3 e R1, l’azienda ha stimato che, se tutto il traffico fosse stato fatturato ai prezzi del modello R1, avrebbe generato 562.027 dollari di entrate giornaliere.

Il chatbot di DeepSeek
Il chatbot di DeepSeek

D’altro canto, il costo per noleggiare le GPU necessarie per l’elaborazione sarebbe stato di 87.072 dollari, lasciando un impressionante margine teorico del 545%.

Tuttavia, DeepSeek ha ammesso che i suoi ricavi effettivi sono “sostanzialmente inferiori”, a causa di diversi fattori come i prezzi più bassi per il modello V3, gli sconti notturni sui servizi e molte funzionalità ancora gratuite (web e app accessibili senza pagamento).

Una proiezione ottimistica, ma quanto è realistica?

Se DeepSeek decidesse di monetizzare completamente i suoi servizi, il traffico potrebbe ridursi drasticamente, rendendo impossibile replicare questi numeri in un contesto reale. L’azienda ha dunque fornito una stima teorica, più che una reale previsione di redditività.

Deepseek chat
DeepSeek su PC

Queste affermazioni arrivano in un momento in cui il dibattito sulla sostenibilità economica dell’intelligenza artificiale è più acceso che mai. Con i costi di addestramento e mantenimento dei modelli in costante crescita, molti analisti si chiedono se le aziende di AI possano realmente ottenere profitti elevati nel lungo termine.

Mentre DeepSeek continua a sorprendere con i suoi numeri, la realtà economica del settore AI rimane incerta. Le previsioni di margine di profitto del 545% potrebbero essere più un esercizio di stile che un vero scenario finanziario, ma dimostrano comunque che l’azienda ha trovato un modello tecnologico potenzialmente scalabile ed efficiente.

Questo articolo presenta un’analisi della startup DeepSeek e dei suoi sorprendenti margini di profitto dichiarati, enfatizzando la differenza tra teoria e realtà nel mercato dell’intelligenza artificiale.

Fonte: multiplayer.it

La Corsa all’Intelligenza Artificiale: Una Sfida Storica per l’Europa

 La corsa mondiale all’intelligenza artificiale (IA) è un appello d’aria storico per le chip elettroniche e una seria sfida per l’Europa. Senza i potenti semiconduttori di nuova generazione, che effettuano miliardi di calcoli nei mega-centri di dati, le applicazioni come ChatPlus, Copilot, Midjourney, Gemini, Claude, Grok, Le Chat e tutti gli altri campioni dell’IA non esisterebbero.

Secondo uno studio di Gartner, pubblicato a febbraio, le vendite di chip per i data center hanno raddoppiato in un anno per pesare il 17,9% dei 626 miliardi di dollari (601 miliardi di euro) di fatturato globale dei semiconduttori nel 2024. «La crescente domanda per il carico di lavoro delle IA e delle IA generative ha portato i centri di dati a diventare il secondo mercato per i semiconduttori nel 2024, dietro gli smartphone», precisa George Brocklehurst, analista presso il cabinetto di studi e consulenza.

Tuttavia, a causa della mancanza di produzione di «chip IA» per soddisfare la domanda globale e i propri bisogni, l’Unione Europea (UE) dipende dai produttori americani, sudcoreani, taiwanesi o giapponesi. «Le aziende europee non sono molto attive nella produzione di chip IA, che sono progettati negli Stati Uniti da aziende come Nvidia, Advanced Micro Devices (AMD) e Intel, per poi essere fabbricati nelle fabbriche di TSMC (Taiwan Semiconductor Manufacturing Company), del sudcoreano Samsung o dell’americano Intel», spiega Utsav Sinha, analista all’interno della società di studi finanziari AlphaValue.

Ruoli Secondari

Vi rimangono l’87,11% di questo articolo da leggere. Il resto è riservato agli abbonati.

In questo articolo, abbiamo discusso dell’importanza dei semiconduttori per la crescita dell’intelligenza artificiale e come l’Europa si confronta con le sfide e la dipendenza da produttori extracomunitari. È fondamentale per il futuro dell’IA che l’Europa sviluppi la propria capacità di produzione di chip per ridurre questa dipendenza e rimanere competitiva a livello mondiale.

Fonte : www.lemonde.fr

???? ABBONATI A CHAT GPT4
Scopri la tua Formula Perfetta con ChatPlus!
???? ABBONATI A CHAT GPT4
Scopri la tua Formula Perfetta con ChatPlus!