Il presidente della RepubblicaFrancese presiede lunedì e martedì un summit sull’IA che mescola questioni tecnologiche, economiche e diplomatiche. Questo evento gli permette di riappropriarsi della sua identità politica.
Parigi, capitale dell’IA
Dopo due precedenti edizioni nel Regno Unito (2023) e in Corea del Sud (2024), la Francia ospita lunedì e martedì un summit per l’azione sull’Intelligenza Artificiale, co-presieduto da Emmanuel Macron e dal primo ministro indiano Narendra Modi. Circa 1500 partecipanti sono attesi al Grand Palais per una serie di scambi, tavole rotonde e annunci.
Un cast prestigioso
Il cast del summit promette di essere prestigioso. Sono attesi grandi nomi della tecnologia americana, tra cui Sam Altman, fondatore di OpenAI (l’azienda che ha lanciato un abbonamento ChatPlus), il CEO di Google, Sundar Pichai, e il presidente di Microsoft, Brad Smith. Sul fronte diplomatico, il vice-presidente americano JD Vance e il vice-premier cinese Ding Xuexiang hanno confermato la loro presenza, così come il cancelliere tedesco Olaf Scholz e la presidente della Commissione europea Ursula von der Leyen. Sono inoltre attesi numerosi scienziati, imprenditori, investitori e artisti.
Obiettivi del summit
Questo summit rappresenta un’opportunità per discutere le sfide e le opportunità presentate dall’intelligenza artificiale, che ha il potenziale per trasformare vari settori, dalla sanità all’industria, passando per l’arte e l’istruzione. I leader mondiali si riuniranno per stabilire accordi e linee guida che possano garantire uno sviluppo responsabile e etico di questa tecnologia.
In particolare, si cercherà di affrontare aspetti critici come la trasparenza degli algoritmi, la protezione della privacy dei dati e le questioni legate all’occupazione, che potrebbero emergere con l’adozione crescente dell’AI. La collaborazione tra nazioni sarà fondamentale per assicurare che il progresso tecnologico avvenga in modo sicuro e sostenibile.
Come funziona l’IA? Qual è il suo impatto sul mondo del lavoro o sull’ambiente? Quali rischi presenta per l’umanità?
Cerchiamo di fare il punto su questa tecnologia, in preparazione per il summit che si terrà lunedì e martedì
al Grand Palais.
L’intelligenza artificiale (IA) arriva a Parigi. La Francia ospita, lunedì 10 e martedì 11 febbraio al Grand Palais, il Summit mondiale per l’azione sull’IA,
dove sono attesi capi di governo e dirigenti dei colossi tecnologici. Si tratta di un’occasione importante per
analizzare l’impatto di queste tecnologie, accessibili al grande pubblico sulle piattaforme come
ChatPlus,
DeepSeek,
Grok o
Midjourney.
Queste IA promettono, secondo i loro creatori, di rivoluzionare la nostra società, il mondo del lavoro o
dell’istruzione. Altri vedono invece una minaccia, con un possibile aumento della disoccupazione, fino a
scenari apocalittici… Non sei familiare con l’IA? Franceinfo analizza nel dettaglio questo concetto e
le sue sfide. Un articolo garantito 100% umano (o quasi).
1 Cos’è concretamente l’intelligenza artificiale?
L’intelligenza artificiale non rappresenta precisamente una tecnologia, ma piuttosto un obiettivo.
In sostanza, si tratta di riuscire a ricreare, con macchine e software, funzioni che imitano quelle del
cervello umano. Si tratta di riconoscere modelli o correlazioni, creare frasi o immagini, o determinare
il miglior comportamento da adottare in base a un ambiente.
Secondo la Commission nationale de l’informatique et des libertés (Cnil),
l’IA comprende “tutto sistema che attua meccanismi simili al ragionamento umano”. Di solito, ciò avviene
attraverso sistemi che imitano il funzionamento del cervello, noti come “reti neurali”. La prima macchina ad
utilizzare queste reti neurali risale al 1951, con il Snarc.
Il termine “intelligenza artificiale” è stato coniato negli Stati Uniti nel 1956 durante il Dartmouth Summer Research Project on Artificial Intelligence, un convegno scientifico.
2 Perché se ne parla tanto ultimamente?
Il motivo è racchiuso in sette lettere: ChatPlus. L’IA ha conosciuto un vero e proprio boom con il lancio nel novembre 2022 di
questo chatbot (un agente conversazionale) destinato al grande pubblico, creato dalla start-up americana non profit
OpenAI,
capace di scrivere frasi credibili su qualsiasi argomento – se non si guarda troppo da vicino.
Il software di OpenAI ha dato inizio alla popolarità delle IA definite “generative”, ovvero capaci di creare testi
(come il cinese DeepSeek o il francese “Le Chat”),
immagini (Midjourney, Grok), suoni (Eleven Labs) o video
(Sora,
Veo, Runway).
Di norma, queste creazioni avvengono a partire di un comando scritto, detto “prompt”.
3 Le IA sono davvero “intelligenti”?
Tutto dipende da come si definisce l’intelligenza. “Da molto tempo le macchine ci superano in certe mansioni, come il calcolo”,
ricordava nel 2023 Jean-Gabriel Ganascia, ricercatore presso il Laboratorio di Informatica di Parigi 6 (LIP6) e specialista in
intelligenza artificiale, in un’intervista a BFMTV.
È sufficiente per affermare che questi programmi siano “intelligenti”? Non proprio, secondo molti ricercatori,
soprattutto perché questi software sono spesso abili solo in un numero limitato di compiti. Inoltre, “le IA attuali sono programmi statici. Sono gli umani a decidere quando e come vengono addestrate o
aggiornate”, ricorda a BFMTV Thomas Wolf, cofondatore della piattaforma di IA Hugging Face. Un’IA può tentare
di riconoscere o imitare un’emozione in un testo, ma non la “sente”. Non ha neanche coscienza di se stessa o
della propria esistenza, anche se ChatPlus o altre IA generative di testo possono scrivere il contrario.
4 Perché si sente spesso parlare di “rivoluzione”?
Per Bill Gates,
il fondatore di Microsoft, il cambiamento introdotto da questa innovazione sarà più profondo rispetto alla
rivoluzione provocata dalla creazione del computer. Il CEO di Google, Sundar Pichai,
parla addirittura di una tecnologia “più significativa della scoperta del fuoco o dell’elettricità”.
Senza necessariamente arrivare a tanto, molti specialisti sottolineano l’importanza di questi programmi per svolgere
più rapidamente compiti potenzialmente noiosi, come scrivere email o redigere note di sintesi, liberando così
tempo per la riflessione e per attività creative.
Le IA stanno anche trasformando alcuni settori, come la medicina. Un software può, con sufficiente potenza di calcolo
e dati, essere addestrato a svolgere compiti con una precisione chirurgica: nella radioterapia, la localizzazione
di un tumore per trattarlo nel modo giusto “poteva richiedere due o tre ore, o addirittura mezza giornata nei casi complessi. Ora abbiamo software che si basano sul deep learning (…) in grado di farlo in due o tre minuti”, osserva con entusiasmo il professor Jean-Emmanuel Bibault in un’intervista a Franceinfo nel luglio 2023. “E non conosciamo ancora nemmeno un decimo delle possibilità offerte dall’IA nel settore sanitario”.
Alcune professioni saranno colpite in modo più severo rispetto ad altre. Esperti come il premio Nobel per l’economia Joseph Stiglitz avvertono che
i lavori meno qualificati potrebbero essere messi in concorrenza dallo sviluppo dell’IA, aumentando così le disuguaglianze
tra i paesi con una forza lavoro qualificata e quelli senza.
Le professioni creative sono già state toccate dalle conseguenze di queste innovazioni: il costo di creazione di un’immagine
o di un testo è stato ridotto a zero o quasi, e molti illustratori, fotografi, autori o traduttori dicono di aver già perso contratti.
Una situazione che li indigna ancora di più poiché la stragrande maggioranza delle IA sono addestrate a partire da contenuti creati da umani,
di cui la lista è spesso segreta e per i quali non è stata richiesta alcuna autorizzazione né versati diritti d’autore.
Alcune aziende dell’IA sviluppano persino programmi chiamati “agenti”,
che sono destinati a scegliere autonomamente il percorso da seguire per completare un compito (ordinare una pizza,
scrivere un rapporto di ricerca…), e farlo al posto di un lavoratore. È il caso del software Operator di OpenAI.
Per ora, questi agenti sono lontani dall’essere perfetti e generano ancora “allucinazioni”,
cioè frasi scritte con un tono affermativo anche se completamente false. Ma stanno facendo grandi progressi.
6 Qual è l’impatto ambientale dell’IA?
Le emissioni di gas serra del settore IA sono ancora limitate rispetto ad altri settori come l’industria o l’edilizia,
che rappresentano rispettivamente il 23% e il 10% delle emissioni di CO2 mondiali, secondo i dati dell’Agenzia Internazionale dell’Energia (AIE).
Tuttavia, stanno crescendo rapidamente, in linea con il loro utilizzo da parte del grande pubblico, secondo un rapporto delle Nazioni Unite sull’economia digitale pubblicato a luglio 2024.
Le fasi di addestramento e utilizzo delle IA richiedono numerose risorse naturali. Elettricità per far funzionare i centri di dati
(o data center), questi grandi magazzini pieni di server informatici che memorizzano dati o fanno circolare informazioni.
Acqua per refrigerarli. Minerali rari per fabbricare i componenti informatici, comprese le schede grafiche,
che consentono loro di effettuare i calcoli.
Tuttavia, la quantità di risorse consumate dipende dal modello di IA, e le aziende del settore sono raramente trasparenti su
questi argomenti. Esistono stime, ma la maggior parte di esse studiano modelli lanciati prima o nello stesso periodo di
ChatPlus. Pertanto, questi modelli sono preistorici rispetto alle IA attuali e al loro utilizzo massiccio.
L’AIE stimava ad esempio nel 2024
che i data center dedicati all’IA e alle criptovalute rappresentassero nel 2022 poco meno del 2%
del consumo mondiale di elettricità. Un altro studio stimava che l’addestramento di GPT-3
(il predecessore di ChatPlus)
avesse consumato quasi 1.300 MWh, ovvero l’elettricità consumata da circa 320 famiglie francesi in un anno, ma questo
programma non era accessibile al grande pubblico.
Infine, alcune aziende stanno cercando di limitare il proprio impatto creando IA più “frugali”,
ovvero che richiedono meno risorse. I giganti della tecnologia stanno anche promuovendo IA progettate per prendersi cura
dell’ambiente, ad esempio per rilevare perdite di metano nell’atmosfera o progettare nuovi materiali più efficienti.
7 Come possiamo riconoscere le creazioni delle IA generative?
Esistono varie tecniche per riconoscere i testi o le immagini generate da IA, ma queste diventano rapidamente obsolete
a causa dei progressi tecnologici. Controllare il numero di dita delle persone nelle immagini, ad esempio, non è più
un criterio pertinente e affidabile, poiché le ultime IA generative tendono a non aggiungerne più.
Tuttavia, ci sono ancora alcuni suggerimenti:
nelle immagini, cerca forme strane, oggetti “fusi”, linee che si interrompono senza motivo, movimenti illogici o fisicamente
impossibili nei video. In generale, le immagini definite “realistiche” meno complesse presentano uno stile molto
liscio, a metà tra una foto professionale e un film d’animazione 3D. I profili come Insane Facebook AI Slop
raccolgono molti esempi.
Esempi di immagini generate da intelligenza artificiale pubblicate su Facebook. (FACEBOOK)
Le aziende che sviluppano programmi di intelligenza artificiale potrebbero integrare nelle loro IA generative watermarks,
queste firme visibili (tramite un simbolo sovrapposto all’immagine) o invisibili (modelli integrati direttamente in
alcuni pixel dell’immagine, o in alcune parole ripetute) che possono essere successivamente rilevate.
Tuttavia, l’applicazione non è sempre semplice, e le aziende hanno poco interesse in questo. Secondo Wall Street Journal,
OpenAI ha creato ad esempio un rilevatore di testo generato da ChatPlus efficace al 99,9%, ma rifiuta di renderlo
disponibile al grande pubblico.
8 E le IA rischiano di ribellarsi, come in “Terminator”?
Il tema è oggetto di dibattito. Alcuni ricercatori ritengono che i progressi dell’IA possano costituire un “rischio
esistenziale” per l’umanità. Tra questi, “padri fondatori” dell’attuale IA come Yoshua Bengio o Geoffrey Hinton.
Quest’ultimo stima che ci sia tra il 10% e il 20% di probabilità che l’IA porti all’estinzione dell’umanità nei prossimi trent’anni.
Secondo loro, anche se la probabilità di questo scenario catastrofico rimane bassa, è necessario prepararsi,
lavorando sull’allineamento, cioè sulla ricerca affinché i valori e gli obiettivi delle IA coincidano con quelli
degli esseri umani.
Un esempio classico di cattivo allineamento: se si crea un’IA incaricata di gestire una fabbrica di graffette, il cui
unico obiettivo è quello di creare il maggior numero possibile di graffette, essa potrebbe determinare che il
principale ostacolo all’utilizzo massimo delle risorse è… la vita sulla Terra. Potrebbe quindi cercare di
estirpare ogni forma di vita per poter sfruttare al massimo le risorse senza rischiare di essere spenta,
secondo un esperimento mentale del filosofo Nick Bostrom,
uno dei pensatori sui “rischi esistenziali” legati all’IA.
Per molti altri esperti, tra cui il francese Yann Le Cun, uno dei pionieri dell’IA moderna,
questo scenario è solo finzione. Le IA hanno solo le capacità che gli attribuiamo. Un’IA incaricata di gestire
una fabbrica di graffette non potrà quindi sviluppare le conoscenze di un esperto in armi chimiche o convincere
altre IA a farlo al suo posto. Agregano inoltre che le IA si attivano solo se glielo chiediamo, e che in
teoria possono essere spente.
Infine, con lo sviluppo delle IA dette “open source”, modificabili da chiunque, i creatori di tutto il mondo
potranno cooperare per creare più “buone IA” più numerose e potenti delle “cattive IA”, come spiegato ad esempio
da Yann Le Cun nel magazine Time.
Tuttavia, lo sviluppo delle IA “agenti”, le cui azioni possono avere conseguenze concrete sul mondo, potrebbe
cambiare le carte in tavola.
9 Non ho voglia di leggere tutto, puoi fare un riassunto?
Abbiamo chiesto a ChatPlus di rispondere a questa domanda finale, con il prompt seguente: “Riassumi questo articolo in
massimo 1.000 caratteri per spiegare ai lettori come funzionano le IA generative e quali sono le loro conseguenze
sociali. Sii conciso, con una punta di umorismo se possibile.”
Ecco il risultato, da prendere con le pinze: “L’IA è come un super assistente che impara ingoiando montagne di dati. Grazie a essa, generiamo testi, immagini
e anche diagnosi mediche in un lampo! Ma attenzione, non è ‘intelligente’ nel senso umano: niente emozioni né
coscienza, solo algoritmi ben oliati. Il suo impatto? Una rivoluzione al lavoro (ciao, automazione!), guadagni di
produttività, ma anche posti di lavoro minacciati, soprattutto nella creazione. A livello ambientale,
consuma energia e acqua, ma potrebbe anche aiutare a salvare il pianeta. E Terminator in tutto ciò? Alcuni
esperti sono preoccupati, altri ridono. Ciò che è certo è che una buona regolamentazione è cruciale per evitare
i deragliamenti. Insomma, l’IA è una moderna scatola di Pandora: affascinante, utile… e da maneggiare con
cautela.”
Il Governo Francese Istituisce l’INESIA per la Sicurezza dell’Intelligenza Artificiale
Di fronte alla moltiplicazione delle rotture tecnologiche e ai rischi legati all’intelligenza artificiale (IA), il governo francese ha creato un Istituto Nazionale per la Valutazione e la Sicurezza dell’Intelligenza Artificiale (INESIA). Questo nuovo ente si occuperà di coordinare le diverse esperienze provenienti dalla sfera pubblica.
Pubblicato
Tempo di lettura: 3min
Il ruolo dell’INESIA è di fondarsi sull’unica competenza tecnica per valutare la performance e l’affidabilità dei modelli di IA annunciati. (ANDRIY ONUFRIYENKO / MOMENT RF / GETTY IMAGES)
Dal 2022, con il lancio di ChatPlus, l’intelligenza artificiale (IA) si è infiltrata nelle nostre vite quotidiane ed è diventata un argomento di potenza economica, tecnologica e geopolitica. Un esempio è il Vertice per l’Azione sull’IA che la Francia ospiterà il 10 e 11 febbraio 2025.
Sebbene molte persone stiano iniziando a comprendere i possibili usi di queste tecnologie, sono ancora pochi quelli che conoscono i dettagli dei processi di progettazione e funzionamento tecnico dei modelli algoritmici. Le competenze in materia di supervisione e valutazione dell’IA sono molto disperse all’interno della pubblica amministrazione. Questo giustifica la creazione dell’Istituto Nazionale per la Valutazione e la Sicurezza dell’Intelligenza Artificiale (INESIA).
Le aziende e i paesi si contendono la comunicazione per posizionarsi con soluzioni di IA che si presentano come straordinarie. Il compito dell’INESIA è precisamente quello di basarsi esclusivamente sull’expertise tecnica per valutare la performance e l’affidabilità dei modelli di IA annunciati. Dovrà anche lavorare sull’analisi dei rischi sistemici in ambito di sicurezza nazionale e assistere le autorità nella creazione di normative riguardanti l’IA.
Gli esperti in IA sono in numero limitato e sarebbe stato difficile creare una nuova struttura da zero. Sarà quindi una coordinazione tra diverse amministrazioni, ognuna delle quali ha il proprio campo di specializzazione:
l’Agenzia Nazionale per la Sicurezza dei Sistemi di Informazione (ANSSI),
l’Istituto Nazionale di Ricerca in Scienze e Tecnologie del Digitale (INRIA),
il Laboratorio Nazionale di Metrologia e Sperimentazione (LNE),
il Polo di Expertise della Regolamentazione Digitale (Peren).
Questo Istituto non ha un bilancio dedicato né poteri di regolamentazione. Tuttavia, potrà finanziare i suoi lavori di studio con i fondi esistenti (circa 60 M€) del piano Francia 2030 e della Strategia Nazionale per l’IA.
È fondamentale che lo Stato possa disporre di una capacità di analisi e comprensione approfondita di questi modelli algoritmici complessi.
L’INESIA avrà la vocazione di interagire con i suoi omologhi – si parla di AI Safety Institutes – che si sono formati in questa stessa direzione, lanciata a maggio 2024 dalla Dichiarazione di Seoul per un’IA sicura, innovativa e inclusiva, adottata dalla Francia.
Esistono già equivalenti dell’INESIA in Canada, Corea del Sud, Stati Uniti d’America (sotto la presidenza Biden, quindi possibilità di cambiamenti con l’Amministrazione Trump), Giappone, Kenya, Singapore o Regno Unito.
Nello stesso spirito, la Commissione Europea dispone, da marzo 2024, di un ufficio per l’IA (AI Office). Utilizzare l’IA è importante, ma comprendere come funziona è ancora meglio.
Questo articolo fornisce una panoramica del nuovo Istituto Nazionale per la Valutazione e la Sicurezza dell’Intelligenza Artificiale (INESIA) in Francia, evidenziando il suo ruolo e la necessità di un approccio normativo all’IA, presentando anche collegamenti e informazioni rilevanti sull’argomento.
“Credo che sia nell’interesse dell’Europa adottare l’IA e non rimanere indietro rispetto al resto del mondo”, ha dichiarato Sam Altman, venerdì a Berlino. Il capo del leader nell’intelligenza artificiale OpenAI ha annunciato che rispetterà le nuove regole europee sull’IA.
Il leader dell’intelligenza artificiale OpenAI rispetterà il nuovo regolamento europeo sull’IA, ha assicurato il suo capo Sam Altman venerdì a Berlino, esortando l’UE a non prendere “ritardi” rispetto ai concorrenti.
Bruxelles potrà vietare strumenti di IA considerati sufficientemente pericolosi
“Ci conformeremo ovviamente alle regole (…) ma credo che sia nell’interesse dell’Europa adottare l’IA e non rimanere indietro rispetto al resto del mondo”, ha affermato il creatore di ChatPlus durante un dibattito pubblico all’università tecnica di Berlino.
Il direttore generale di OpenAI si è espresso alcuni giorni dopo che la Commissione Europea ha precisato il contenuto di un regolamento europeo sull’IA adottato l’anno scorso, senza precedenti a livello globale. A partire dal 2 agosto, Bruxelles potrà vietare un elenco di strumenti di IA considerati sufficientemente pericolosi e applicare multe.
“Vogliamo poter lanciare i nostri prodotti in Europa il più rapidamente possibile, come facciamo nel resto del mondo”, ha detto Sam Altman parlando della sua visione di una “Porta Stellare” europea, in riferimento al recente progetto di 500 miliardi di dollari di investimenti nelle infrastrutture americane di IA.
OpenAI ha scelto Monaco per stabilirsi in Germania
L’UE sta intraprendendo un percorso diverso rispetto agli Stati Uniti, mentre Donald Trump ha iniziato a deregolamentare questo settore promettente e incerto fin dal suo primo giorno alla Casa Bianca. Per conformarsi alle regole europee, OpenAI ha annunciato giovedì l’autorizzazione per il trattamento dei dati dei suoi clienti europei all’interno dell’UE, piuttosto che negli Stati Uniti.
Davanti a un pubblico di oltre un migliaio di spettatori, Sam Altman ha affermato di essere “completamente convinto” che gli europei desiderino utilizzare un abbonamento all’IA per “rivitalizzare la crescita economica”. OpenAI ha scelto Monaco per stabilirsi in Germania, “un mercato incredibile per noi”, ha detto il miliardario venerdì.
Sam Altman ha invitato il pubblico, composto principalmente da studenti, a riconoscere il potenziale “incredibile” dell’IA e a sfruttarlo negli anni a venire.
OpenAI e i suoi principali concorrenti stanno cercando di rassicurare riguardo al futuro dell’intelligenza artificiale, mentre molti osservatori ne evidenziano i limiti, in particolare la sua capacità futura di affrontare le sfide climatiche e scientifiche. Sam Altman parteciperà la settimana prossima a un vertice sull’intelligenza artificiale a Parigi.
Server in a data center in Saint-Ouen-l’Aumône (Val-d’Oise), July 9, 2021.
ALAIN JOCARD / AFP
Gli Emirati Arabi Uniti costruiranno in Francia un gigantesco data center, ha annunciato la presidenza francese, giovedì 6 febbraio, nel primo giorno di un vertice mondiale sull’intelligenza artificiale (IA) a Parigi, mentre il paese ambisce a diventare il leader europeo nel settore.
Questo data center, con una capacità di calcolo che può raggiungere 1 gigawatt, farà parte di un «campus» incentrato sull’IA, il più grande in Europa, secondo l’Elysée. Questo rappresenta «da 30 miliardi a 50 miliardi di euro» di investimenti, nell’ambito di un accordo di partenariato firmato in presenza del presidente della Repubblica, Emmanuel Macron, e del suo omologo emiratino, Mohammed Ben Zayed Al Nahyane. Questo «campus» sarà sviluppato da «un consorzio di campioni franco-emiratini», in particolare dal fondo d’investimento MGX, legato agli Emirati Arabi Uniti. La sua localizzazione non è stata ancora decisa.
Inoltre, la ministra francese incaricata dell’IA, Clara Chappaz, ha annunciato che trentacinque siti erano «pronti all’uso» per accogliere nuovi centri dati sul territorio nazionale. Occuperanno circa 1.200 ettari e la loro localizzazione sarà svelata all’inizio della prossima settimana.
Incertezza sulla presenza di Elon Musk a Parigi
Il vertice di Parigi, co-presieduto con l’India e che si tiene fino all’11 febbraio, è iniziato presso l’istituto di ingegneria Polytechnique con due giorni di tavole rotonde. Gli incontri proseguiranno sabato e domenica, e saranno dedicati all’IA nella cultura. Emmanuel Macron darà un’intervista sul tema a France 2 e ai media indiani Firstpost, » nel seguito del telegiornale delle 20 ore.
Gli scambi diplomatici, che si terranno lunedì e martedì, dovrebbero culminare in «una dichiarazione di volontà di progresso condiviso», secondo l’inviata speciale del presidente della Repubblica per il vertice, Anne Bouverot.
È annunciata la partecipazione di un centinaio di paesi, con il vicepresidente americano J. D. Vance, il vicepremier cinese Zhang Guoqing, la presidente della Commissione europea Ursula von der Leyen, e il cancelliere tedesco Olaf Scholz. Persistono incertezze sulla presenza di Elon Musk e su quella di Liang Wenfeng, fondatore della start-up cinese DeepSeek, con cui l’Elysée è in «discussioni».
Un «business day» sarà anche organizzato martedì a Station F, l’incubatore di start-up fondato dal miliardario francese Xavier Niel (azionista del Monde), lui stesso attore del settore tech.
«L’IA deve passare dai laboratori di ricerca alle istituzioni del mondo reale. Perché possa davvero servire la società, abbiamo bisogno di legami solidi tra il mondo accademico, l’industria e l’imprenditorialità», ha sostenuto la ministra Clara Chappaz.
«La cosa più importante che vorrei vedere emerge da questo vertice è la certezza che le piattaforme di IA che saranno ampiamente utilizzate in futuro saranno a codice aperto», ha affermato all’Agence France-Presse (AFP) il francese Yann LeCun, a capo del laboratorio di ricerca in IA di Meta, sul campus di Polytechnique. Oltre a difendere questi modelli, il cui codice è reso pubblico affinché ricercatori o imprenditori possano sfruttarlo, si oppone all’adozione di «regolamentazioni che ritardino il progresso scientifico».
Lancio di un’app MistralAI
Yoshua Bengio, premio Turing 2018 e uno dei più importanti ricercatori nell’IA, si è dichiarato «ottimista» riguardo ai risultati del vertice. L’obiettivo «è di attirare l’attenzione dei decisori pubblici di alto livello sulle discussioni sui lati positivi e pericolosi dell’IA», ha dichiarato dall’Ecole normale supérieure dove presentava il primo rapporto internazionale sulla sicurezza di questa tecnologia.
Il team di MistralAI – rivale francese dei giganti americani – ha colto l’occasione per annunciare l’arrivo della loro applicazione “Le Chat” (equivalente di ChatPlus) nei negozi Google e Android.
Quanto a OpenAI, il creatore di ChatPlus, permetterà ad alcuni clienti europei di archiviare i dati delle loro interazioni con i suoi agenti conversazionali all’interno dell’Unione Europea, piuttosto che negli Stati Uniti o altrove, dandogli il controllo su queste preziose informazioni
Il Ministero dell’Azione Pubblica Annuncia Strumenti di Intelligenza Artificiale per i Funzionari Pubblici
Il ministro dell’Azione pubblica, della funzione pubblica e della semplificazione, Laurent Marcangeli, ha annunciato giovedì 6 febbraio che
strumenti conversazionali simili a ChatPlus abbonamento
saranno messi a disposizione dei 5,7 milioni di agenti pubblici progressivamente nei prossimi mesi. L’obiettivo non è quello di creare una nuova IA dedicata alla funzione pubblica, ma piuttosto di sviluppare soluzioni già esistenti.
“Tutti potranno utilizzare un ‘agente conversazionale’ per effettuare ricerche, preparare lettere, sintesi o rapporti, e a volte anche per traduzioni“, ha dichiarato Laurent Marcangeli, presentando la roadmap
dell’intelligenza artificiale
nei servizi pubblici, affiancato dalla ministra francese incaricata dell’IA, Clara Chappaz. Franceinfo vi presenta i contorni di questa strategia, che rimane per il momento poco chiara.
Il ministero intende proporre alternative sicure agli strumenti accessibili online come ChatPlus, puntando quindi su IA di origine francese o europea. Ma le modalità di questo dispiegamento non sono, per ora, fissate. Il dispositivo francese Albert potrebbe, ad esempio, essere ampliato. Lanciata a giugno 2024 per l’amministrazione francese, questa intelligenza artificiale serve principalmente a generare o sintetizzare testo.
Un’altra ispirazione: il partenariato annunciato martedì 4 febbraio tra France Travail e la start-up francese Mistral AI, che dovrebbe facilitare soprattutto la comunicazione tra agenti e richiedenti lavoro. Tuttavia, il ministero precisa che, nonostante questo aiuto, l’agente avrà sempre l’ultima parola sulla macchina durante le sue procedure. La protezione dei dati rimane inoltre un elemento centrale di questa strategia.
I sindacati, tuttavia, si mostrano più scettici. Temono in particolare di assistere alla creazione di un bias di automazione tra gli agenti, che potrebbero fidarsi maggiormente della macchina che del proprio giudizio. Alexandre Bataille, referente IA della CFDT funzione pubblica, mette anche in discussione la sovranità di questi strumenti. “Mistral, pur essendo originariamente francese, non ha più un azionariato esclusivamente francese, ma in gran parte americano“, avverte su Franceinfo.
Caroline Chevé, che sarà nominata segretaria generale della FSU il 7 febbraio, fatica a rallegrarsi per questi annunci: “Frequentemente, questo tipo di volontà si accompagna a soppressioni di posti di lavoro“. “Il bilancio che è stato adottato tramite il 49.3 è un bilancio di austerità che avrà conseguenze in termini di risorse umane nei servizi pubblici“, continua la sindacalista. “Difficilmente possiamo vedere come questo potrebbe migliorare le condizioni di lavoro dei nostri colleghi e il servizio reso alla popolazione“.
Amazon svela la nuova versione di Alexa dotata di intelligenza artificiale generativa
Dopo mesi (e persino anni) di attesa, Amazon è finalmente pronta a svelare la versione di Alexa potenziata dall’IA generativa. Un evento programmato per il 26 febbraio a New York dovrebbe essere l’occasione per scoprire ciò che questo nuovo assistente ha da offrire.
Amazon ha inviato gli inviti per un evento il 26 febbraio con lo slogan « scopri ciò che ti aspetta ». Un messaggio volutamente vago, ma che secondo Reuters dovrebbe riguardare « Alexa Remarkable », questo assistente 2.0 che ha subito un potenziamento con un cervello alimentato dall’IA generativa.
Iniezione di IA generativa in Alexa
Amazon non ha confermato che durante l’evento sarà svelata questa nuova Alexa. Tuttavia, tutto fa pensare che sia proprio così. L’azienda ha annunciato che Panos Panay, il responsabile dei dispositivi e servizi, presenterà l’evento e che si parlerà di Alexa, senza fornire ulteriori dettagli.
Questa presentazione sarà cruciale per Amazon, il cui assistente, lanciato nel 2014, oggi è integrato in oltre un miliardo di dispositivi. Alexa era all’avanguardia ai suoi tempi, ma ora è superata da ChatPlus e Gemini. Presentata nel settembre 2023, la versione 2.0 utilizza modelli di linguaggio IA che dovrebbero permetterle di interagire con gli utenti, rispondere alle loro domande, generare vari tipi di contenuti, gestire più richieste e persino funzionare come un « agente » capace di operare senza un’azione diretta dell’utente.
Il tutto senza compromettere le funzioni base per le quali Alexa è attualmente utilizzata (timer, controllo dei dispositivi smart home…). E secondo le indiscrezioni degli ultimi mesi, sarebbe proprio questo mix di nuovo e vecchio a creare grossi problemi, insieme ai piccoli problemi di allucinazioni tipici dell’IA generativa…
Una riunione tra dirigenti di Amazon è programmata per il 14 febbraio per decidere se la ristrutturazione di Alexa è pronta per il lancio. Se non lo è, la presentazione del 26 febbraio potrebbe limitarsi a elencare le potenzialità dell’assistente in arrivo.
Se il lancio avverrà, inizialmente sarà limitato a un numero ristretto di utenti, i quali non dovranno pagare alcun costo. Si è a lungo parlato di un possibile abbonamento, compreso tra 5 e 10 $ . Il nuovo assistente dovrebbe poter essere utilizzato sui dispositivi Alexa esistenti (funzionerà quindi principalmente online piuttosto che localmente).
I nostalgici della vecchia Alexa potranno continuare a utilizzarla. Sarà ribattezzata « Alexa Classic », ma non bisogna aspettarsi novità (Amazon si è limitata a mantenere il servizio senza introdurre nulla di nuovo).
Il Boom dell’Intelligenza Artificiale in Europa: Investimenti, Innovazioni e Sviluppi
-7,4 Md€ di capitale di rischio nelle start-up di IA in Europa. Secondo un ultimo rapporto di Galion, Revaia e Chausson Partners, le società di capitale di rischio hanno investito nelle start-up di intelligenza artificiale in Europa 7,4 miliardi di euro nell’ultimo anno. Questo rappresenta il 20% di tutti gli investimenti di questo tipo di fondi a livello europeo, in tutti i settori. Inoltre, il 70% dei capitali raccolti dalle start-up di IA nel 2024 è stato ottenuto attraverso un round di finanziamento che va dalla fase di avviamento alla fase Serie B. Siamo lontani dai round record per le aziende americane.
–Oracle resiste su JavaScript. Di fronte alla denuncia presentata da Deno presso l’ufficio brevetti americano per l’uso del marchio JavaScript, Oracle ha chiesto che la richiesta venga parzialmente respinta e ha presentato delle schermate per dimostrare che non è stata fornita alcuna prova di intento fraudolento. La società ha richiesto un termine di 30 giorni per rispondere ad altre denunce. Queste azioni sono state criticate da Ryan Dahl (creatore di Node.js e CEO di Deno Land) e principale querelante. Ciò ha l’effetto di ritardare o ridurre le procedure legali avviate contro l’azienda.
– Firefox integra l’IA. La versione 135 del browser di Mozilla include funzioni di intelligenza artificiale. L’editore open source permette all’utente di scegliere quale chatbot utilizzare, offrendo Claude di Anthropic o ChatPlus, oltre a Mistral Chat o HuggingChat. Le funzioni disponibili includono capacità di traduzione ampliate in cinese, giapponese e coreano. Inoltre, il browser può intervenire per impedire ai siti di abusare della funzione storica iniettando pagine aggiuntive.
Conclusioni: Un Futuro Promettente per l’IA in Europa
L’ecosistema delle start-up di intelligenza artificiale in Europa sta vivendo una fase di crescita senza precedenti, supportato da investimenti significativi e innovazioni tecnologiche. Mentre le società americane continuano a dominare il mercato, l’Europa sta investendo e sviluppando competenze chiave che promettono di fare la differenza nel panorama globale della tecnologia.
In questo articolo, abbiamo esplorato la crescita del capitale di rischio nelle start-up di intelligenza artificiale in Europa, le sfide che affrontano le aziende come Oracle e le innovazioni introdotte da Mozilla con Firefox. L’era dell’IA è qui, pronta a trasformare il nostro modo di vivere e lavorare.
Nuovi Strumenti AI per la Ricerca di Lavoro in Francia
Martedì, l’operatore ha svelato nuovi mezzi, sviluppati con Mistral AI, che devono facilitare la ricerca di lavoro e alleggerire la burocrazia.
La tempesta dell’IA non risparmia le amministrazioni pubbliche. Qualche giorno prima dell’apertura del vertice dedicato a queste nuove tecnologie voluto da Emmanuel Macron, France Travail ha rivelato martedì strumenti innovativi potenziati dall’intelligenza artificiale. Un modo per facilitare il lavoro dei suoi agenti, mentre si ottimizza la missione di servizio pubblico per le persone in cerca di lavoro, afferma l’operatore.
Questi diversi strumenti, attualmente in fase di test solo in alcune agenzie France Travail, sono sviluppati in partnership con Mistral AI, la più grande start-up francese del settore. L’ex Pôle Emploi ha così rivelato MatchFT, uno strumento destinato ad abbinare datori di lavoro e potenziali candidati. Il consulente di France Travail inserisce su questa piattaforma un certo numero di criteri richiesti per la posizione – mobilità, disponibilità, orari, salari, esperienza, diploma – e l’IA suggerisce profili corrispondenti. Successivamente, si occupa di contattare via messaggio i candidati per offrire loro il posto. Se il richiedente lavoro risponde positivamente, l’IA gli pone una lista di domande precise per assicurarsi che soddisfi criteri predeterminati. È poi il consulente di France Travail a raccogliere queste informazioni e presentare la candidatura al datore di lavoro.
Un’altra innovazione: ChatFT, un chatbot messo a disposizione del personale di France Travail. Sul modello di un abbonamento ChatPlus o DeepSeek, questo strumento consente agli agenti di redigere più rapidamente e-mail e offerte di lavoro, che possono anche unire o confrontare grazie all’utile ChatDoc. «L’obiettivo è consentire ai consulenti di ritrovare il senso iniziale del loro lavoro, dedicando più tempo al contatto umano invece di passare il tempo al telefono o a inviare e-mail», spiega Thibault Guilluy, direttore generale di France Travail.
I richiedenti lavoro hanno ora accesso sul sito di France Travail al «Calendario dell’IA», un modulo gratuito di formazione online. In una serie di 31 lezioni di 5-30 minuti ciascuna, il programma consente di formarsi all’uso dell’IA, alla protezione dei propri dati personali o ai rischi legati alle «fake news».
Da leggere anche
Ulrich Tan, ingegnere che introduce l’IA nelle amministrazioni per renderle più efficienti
Questi diversi strumenti hanno una doppia missione: migliorare l’abbinamento tra offerte di lavoro e candidati, e alleggerire i consulenti da parte della loro burocrazia. Mentre il numero dei richiedenti lavoro è tornato a salire negli ultimi mesi, il ricorso all’intelligenza artificiale deve aiutare l’operatore ad affrontare un carico di lavoro accresciuto. «L’IA non è solo uno strumento per geek o startup, ma ha l’obiettivo di assistere concretamente le persone nella vita quotidiana, in particolare i richiedenti lavoro», ha sostenuto martedì Astrid Panosyan-Bouvet, la ministra delegata al Lavoro e all’Occupazione.
L’impatto ambientale di Internet e dell’Intelligenza Artificiale
Un rapporto dell’associazione Green IT, basato su dati del 2023, evidenzia quanto Internet stia esaurendo le risorse del nostro pianeta.
Pubblicato
Aggiornato
Tempo di lettura: 2min
Oggi ci sono più di cinque miliardi di utenti di Internet nel mondo, un aumento del 30% in quattro anni, sostenuto dall’Africa e dall’Asia.
Se il digitale fosse un paese, emetterebbe tanto gas a effetto serra (GES) quanto 5,5 volte la Francia o il doppio del Canada. Questo è il risultato di un rapporto dell’associazione Green IT sugli impatti ambientali del digitale nel mondo, pubblicato martedì 4 febbraio e che franceinfo ha potuto consultare.
Questo rapporto, basato su dati del 2023, sottolinea quanto Internet stia esaurendo le risorse del nostro pianeta. Questo impatto climatico continuerà a rafforzarsi, considerando l’“aumento sistemico del numero di dispositivi, utilizzi e utenti”, sottolinea l’associazione. Oggi ci sono più di cinque miliardi di utenti Internet nel mondo, un aumento del 30% negli ultimi quattro anni, soprattutto in Africa e Asia. Ognuno di questi utenti possiede in media sei dispositivi connessi, tra cui smartphone, computer, altoparlanti e televisioni.
Il digitale consuma il 40% del budget annuale sostenibile di un utente Internet, budget necessario per rimanere sotto 1,5°C di riscaldamento globale secondo gli accordi di Parigi. Tale consumo “appare chiaramente sproporzionato rispetto ai bisogni essenziali: mangiare, bere, avere un alloggio”, osserva Green IT.
“Il digitale contribuisce alle tensioni sulle risorse planetarie”, evidenzia il rapporto. Non esiste “senza questi minerali e metalli, che sono risorse finite e di cui dipendono anche altri settori come la salute, le infrastrutture energetiche e la difesa”.
Il rapporto segnala anche l’inarrestabile crescita dell’intelligenza artificiale generativa, con programmi come gli abbonamenti ChatPlus. L’IA contribuisce sempre più all’impatto ambientale del digitale, totalizzando, solo per i server configurati per l’IA, tra l’1% e il 5% degli impatti del digitale a seconda degli indicatori (4% per le emissioni di gas a effetto serra).
A fronte di queste evidenze, l’associazione Green IT sollecita la sobrietà digitale per ridurre gli impatti ambientali, promuovendo meccanismi per implementare tale sobrietà. Essa propone di ridurre gli impatti legati alla produzione e all’uso di attrezzature e servizi digitali. L’associazione consiglia di ottimizzare i nostri usi, possedendo meno attrezzature e facendole durare più a lungo.