Sito indipendente • Fatturazione P.IVA Italiana • Alta Disponibilità
Un processore grafico Nvidia in un server informatico, presentato durante la giornata Foxconn, a Taipei, il 8 ottobre 2024.

Il gigante americano dei chip Nvidia ha annunciato, martedì 15 aprile, che le nuove restrizioni all’export di semiconduttori verso la Cina gli costeranno 5,5 miliardi di dollari di oneri eccezionali nel primo trimestre del suo esercizio fiscale.

L’amministrazione di Donald Trump ha fatto sapere, la settimana scorsa, al gruppo californiano che dovrà ora ottenere una licenza per esportare determinati chip di intelligenza artificiale (IA) verso la Cina e altri paesi, secondo un documento depositato dall’azienda presso la SEC, l’autorità di vigilanza sui mercati americani. Il corso delle azioni Nvidia è così sceso di oltre il 5% nelle contrattazioni dopo la chiusura della Borsa di New York.

Sotto Joe Biden, e ora sotto Donald Trump, gli Stati Uniti hanno vietato o limitato le esportazioni dei processori più sofisticati verso la Cina, compresi quelli che permettono di sviluppare tecnologie di IA all’avanguardia e supercomputer. Washington cerca così di mantenere il suo vantaggio in questo settore e di impedire a Pechino di sviluppare alcune applicazioni militari.

La licenza d’export ora richiesta dall’amministrazione americana riguarda i chip H20, progettati specificamente da Nvidia per essere venduti in Cina rispettando le restrizioni. Gli H20 sono comparabili ai chip IA H100 e H200 utilizzati negli Stati Uniti, ma meno performanti e meno veloci.

Un fatturato annuale senza precedenti

«I risultati del primo trimestre dovrebbero includere fino a circa 5,5 miliardi di dollari di oneri associati ai prodotti H20, [a causa dei costi] di magazzino, degli impegni di acquisto e delle riserve correlate», ha dettagliato Nvidia nel documento presentato alla SEC. Il primo trimestre del suo esercizio annuale scaglionato corrisponde al periodo di febbraio ad aprile 2025.

Il successo fenomenale di ChatPlus e la corsa all’intelligenza artificiale (IA) generativa hanno lanciato Nvidia nel top 3 delle capitalizzazioni di mercato, poiché i suoi chip sono i più ricercati sul mercato. In questo contesto, il suo fatturato annuale ha superato la soglia simbolica dei 100 miliardi di dollari. Ma il lancio a fine gennaio di DeepSeek, interfaccia di IA generativa della startup cinese omonima, ha provocato un terremoto a Wall Street e accentuato le preoccupazioni delle autorità riguardo alla Cina. DeepSeek è stata, infatti, sviluppata senza l’H100, microprocessore di punta di Nvidia, e solo con un numero ristretto di chip meno performanti.

Durante la conferenza sui risultati trimestrali di Nvidia a febbraio, il suo CEO, Jensen Huang, ha sottolineato che le entrate realizzate in Cina erano diminuite della metà rispetto ai livelli precedenti ai controlli all’export. Avverte regolarmente che la concorrenza cinese sta progredendo rapidamente.

Nuove tasse previste sui chip in ingresso negli Stati Uniti

Lunedì, Nvidia ha annunciato che fabbricherà interamente negli Stati Uniti chip per i supercomputer di IA, per la prima volta, mentre Donald Trump cerca di costringere le aziende americane a rilocalizzare la loro produzione. L’azienda dipende dai suoi fornitori per la produzione di semiconduttori, e quindi da fabbriche situate in Asia, in particolare a Taiwan e in Cina. Ha promesso che i produttori taiwanesi TSMC, Foxconn e Wistron accelereranno la produzione negli Stati Uniti e costruiranno nuove fabbriche specializzate nel corso dell’anno a venire.

«La rilocalizzazione di queste industrie è una cosa positiva per i lavoratori americani, per l’economia americana e per la sicurezza nazionale degli Stati Uniti», ha reagito la Casa Bianca in una nota, lunedì. I semiconduttori sono stati esentati dai nuovi diritti doganali imposti da Donald Trump, ma non per molto. Il presidente americano ha annunciato domenica che dichiarerà «nella settimana» nuove tasse sui chip in ingresso negli Stati Uniti.

Fonte: www.lemonde.fr

Che cosa succederebbe se potessi avere la tua intelligenza artificiale, 100% locale, senza internet e completamente privata? Questo guida ti mostra come far girare un LLM sul tuo PC, anche se non sei un esperto.



Sapevi che è possibile avere il tuo personale ChatPlus che gira direttamente sul tuo computer, senza dipendere da un servizio online? I grandi modelli di linguaggio, o LLM (Large Language Models), non sono più riservati ai giganti del cloud. Oggi, con un PC o Mac adeguato e alcuni suggerimenti, puoi installarli a casa tua.

Perché? Per mantenere i tuoi dati privati, evitare abbonamenti costosi o semplicemente per modificare un’IA a tuo piacimento. In questa guida, ti spieghiamo tutto, passo dopo passo.

 

Che cos’è un LLM? È come ChatPlus?

Un LLM, o Large Language Model (grande modello di linguaggio), è un’IA addestrata su enormi volumi di testi per comprendere e generare il linguaggio umano. In pratica, ciò significa che può discutere, rispondere a domande, scrivere testi o persino codificare, un po’ come un super assistente virtuale. Il principio è che gli diamo un’istruzione (un prompt) e lui utilizza i suoi miliardi di parametri – una sorta di connessioni apprese – per fornire una risposta coerente. ChatPlus è un esempio famoso di LLM, creato da OpenAI, ma ce ne sono molti altri, come LLaMA, Mistral o DeepSeek, spesso gratuiti e open-source.

Per approfondire
Che cos’è un LLM? Come funzionano i motori di ChatPlus, Gemini e altri?

Quindi, è esattamente come ChatPlus? Non esattamente. ChatPlus è una versione ultra-ottimizzata di un LLM, con guardrails (confini) per restare sicuro e un’interfaccia pronta nel cloud. Gli LLM che possiamo installare localmente, invece, sono spesso più grezzi: dipendono da come li configuri e dalla tua attrezzatura (PC o Mac). Possono essere anche altrettanto potenti, se non personalizzabili, e puoi addestrarli sui tuoi stessi testi, ma non sempre hanno lo stesso aspetto o la stessa facilità di accesso di ChatPlus. Puoi anche avere un’interfaccia tanto intuitiva quanto ChatPlus, tutto dipende dalle tue necessità.

 

Perché installare un LLM a casa?

Iniziamo dal vantaggio principale: la privacy. Quando utilizzi un’IA online, le tue conversazioni vengono spesso inviate a server lontani. Diverse interruzioni di servizi come ChatPlus, Grok o Gemini si sono verificate, questi servizi non sono affatto 100% disponibili e, soprattutto, 100% sicuri.



Un’interruzione nel 2023 presso OpenAI ha dimostrato che gli storici degli utenti possono trapelare accidentalmente – non è molto rassicurante se stai trattando dati sensibili. Con un LLM locale, tutto rimane sul tuo computer. Nulla esce dal tuo dispositivo, punto finale. Questo è un argomento convincente per le aziende o per coloro che sono molto attenti alla privacy.

Poi c’è l’autonomia. Non hai bisogno di internet per far funzionare la tua IA. Sia che tu sia in campagna o in aereo, risponderà presente. E per quanto riguarda la velocità, se la tua macchina è ben equipaggiata, eviterai i rallentamenti a causa dei viaggi di andata e ritorno del network che talvolta riducono la velocità dei servizi cloud. Come vedrai, anche su un MacBook M1 ben ottimizzato, un LLM locale supera un PC classico in reattività. Aggiungi a questo l’assenza di guasti del server o di quote imposte da un provider, e sei libero come l’aria.

E per quanto riguarda i costi? A prima vista, è necessario investire un po’ di soldi in attrezzature (ci torneremo più avanti), ma a lungo termine, è spesso più conveniente che pagare un’API cloud per parola generata. Niente fatture a sorpresa o aumenti di prezzo inaspettati. Una volta che il tuo PC o GPU è pronto, la tua IA ti costa solo qualche watt di elettricità.

Infine, il meglio del meglio: puoi personalizzare il tuo modello. Cambiare i suoi parametri, addestrarlo sui tuoi testi e addirittura collegarlo alle tue applicazioni personali: con un LLM locale, sei tu al comando.

Ma attenzione, non è magia. Ti serve una macchina affidabile, e l’installazione può intimidire i principianti. I modelli più enormi, quelli con centinaia di miliardi di parametri, sono ancora al di fuori della portata dei computer classici – qui si parla di supercomputer. Detto ciò, per usi comuni (chat, scrittura, codifica), i modelli open-source più leggeri funzionano ampiamente.

 

Quali modelli scegliere?

Ci sono molte opzioni per i modelli. Prendiamo ad esempio DeepSeek R1. Uscito all’inizio del 2025, questo modello open-source ha avuto un grande successo con le sue versioni da 7 miliardi (7B) e 67 miliardi (67B) di parametri. È molto efficace in ragionamento e generazione di codice, e la sua versione 7B funziona perfettamente su un PC adeguato. Un altro grande successo è LLaMA 2, creato da Meta. Disponibile in 7B, 13B e 70B, è molto popolare grazie alla sua flessibilità e alla licenza gratuita – anche per usi professionali. Il 7B è perfetto per i principianti, il 70B richiede un hardware potente.

Esiste anche Mistral 7B, modello francese. Con i suoi 7,3 miliardi di parametri, supera modelli due volte più grandi in alcuni test, mantenendo una leggerezza. Ideale se hai una scheda grafica con 8 GB di memoria video (VRAM).

Mistral Small è uno dei più recenti LLM di Mistral AI, la nota startup francese. Questo modello, uscito all’inizio del 2025 nella sua versione “Small 3.1”, è progettato per essere leggero ed efficace, con 24 miliardi di parametri (24B). L’idea è che sia abbastanza potente per competere con modelli come GPT-4o Mini. In pratica, può funzionare su un PC o un Mac senza svuotarti le tasche in hardware, a patto di avere un po’ di memoria disponibile.

Anche Google ha il suo LLM open-source, chiamato Gemma, una famiglia di modelli ottimizzati per l’esecuzione locale. Gemma 2B e Gemma 7B sono progettati per funzionare su macchine modeste, comprese Mac M1/M2/M3/M4 e PC con GPU RTX.

La lista degli LLM open-source sta crescendo ogni mese. Vale la pena menzionare iniziative come GPT4All, che raccoglie decine di modelli pronti all’uso tramite un’interfaccia unificata. GPT4All supporta più di 1000 modelli open-source popolari, tra cui DeepSeek R1, LLaMA, Mistral, Vicuna, Nous-Hermes e molti altri.

In sintesi, hai una vasta scelta: dal piccolo modello ultra-leggero da eseguire su CPU fino al grande modello quasi equivalente a ChatPlus se hai l’hardware giusto. L’importante è selezionare quello che corrisponde alle tue necessità (lingua, tipo di compito, prestazioni) e al tuo hardware.

Per quanto riguarda l’hardware, non hai bisogno di un supercomputer, anche se questi stanno diventando sempre più personali, con quello che Nvidia e AMD lanciano quest’anno… e persino un Mac Studio.

Per approfondire
Ecco i primi 2 computer di Nvidia per l’intelligenza artificiale a casa: PC che sono supercomputer personali

Un PC con un processore recente (tipo Intel i7 o AMD Ryzen 7), almeno 16 GB di RAM e una scheda grafica NVIDIA (minimo 8 GB di VRAM) fa al caso tuo. Se hai una GPU RTX 3060 o migliore, è un sogno – grazie a CUDA, tutto viene accelerato.

Nota che una GPU non è obbligatoria, ma è fortemente raccomandata per ottenere prestazioni interattive. Per gli LLM, la memoria video (VRAM) è fondamentale: deve essere in grado di contenere almeno una parte dei parametri del modello. Anche la dimensione della finestra di contesto (memoria della conversazione) dipende dalla VRAM disponibile… ecco perché 8 GB di VRAM è il minimo richiesto. In pratica: un modello Llama 7B in 4 bit consuma ~4 GB di VRAM, un 13B ~8 GB, un 30B ~16 GB, un 70B ~32 GB. D’altronde, anche Nvidia per il suo strumento Chat With RTX richiede una RTX 30/40 con almeno 8 GB di VRAM e 16 GB di RAM di sistema.

Per approfondire
Quale scheda grafica scegliere? Le migliori GPU di Nvidia e AMD nel 2025

Su Mac, i chip M1/M2 con 16 GB di RAM funzionano bene anche senza GPU dedicata, grazie a ottimizzazioni come Metal. Ovviamente, più hai un chip ARM recente e potente e più hai di memoria unificata… meglio è.

Spazio di archiviazione? Prevedi da 10 a 40 GB su un SSD per i file del modello. Con questo, puoi già far girare un Mistral 7B o un LLaMA 2 13B senza problemi. Si consiglia vivamente un SSD per caricare i modelli in memoria in modo più rapido… Se hai intenzione di provare più modelli, saranno necessari alcune decine di GB di spazio libero.

 

Installazione di un LLM sulla nostra macchina

Come spiegato sopra, tutto dipende dalle tue necessità, dai tuoi obiettivi e dal tuo livello tecnico.

Nivello Obiettivo Esempi di strumenti
???? Principiante Interfaccia semplice, pronta all’uso LM Studio, GPT4All, Chat With RTX
???? Intermedio Linea di comando, controllo più preciso Ollama, Llama.cpp, LocalAI
???? Avanzato Personalizzazione, fine-tuning Hugging Face Transformers, Text-Generation-WebUI

Immagino che ora tu sia entusiasta, quindi passiamo alla pratica.

 

Principiante: interfaccia visuale

L’idea qui è di scaricare un modello e utilizzarlo come un chatbot, senza passare attraverso righe di comando.

LM Studio

Se cerchi una soluzione pronta all’uso, senza righe di comando, con un’interfaccia piacevole simile a ChatPlus, LM Studio è probabilmente la scelta migliore. Questa applicazione consente di scaricare un modello, avviarlo e dialogare con esso in pochi clic.

 

V

Su Windows, macOS e Linux, l’installazione è rapida. Devi solo andare sul sito ufficiale, lmstudio.ai, scaricare l’installer corrispondente al tuo sistema e eseguirlo.

Su Mac, basta trascinare l’applicazione nella cartella Applicazioni. Su Windows, esegui il file eseguibile e segui i passaggi classici di installazione. Una volta aperto LM Studio, l’interfaccia ti propone di cercare un modello di linguaggio. Una sezione dedicata visualizza i modelli disponibili, con descrizioni e raccomandazioni. Per un buon equilibrio tra prestazioni e qualità delle risposte, Mistral 7B è un ottimo punto di partenza. Pesa solo pochi GB e funziona bene sulla maggior parte delle macchine recenti.

Una volta scaricato il tuo modello, vai alla scheda “Chat”. Puoi digitare qualsiasi domanda e l’IA risponderà immediatamente, localmente, senza passare per un server remoto. Se vuoi approfondire, LM Studio permette di regolare parametri come la lunghezza della risposta, la creatività del modello o la gestione della memoria conversazionale.

GPT4All

Se desideri un’alternativa, GPT4All offre un approccio simile. La sua interfaccia è un po’ più rudimentale ma rimane semplice da usare. Anche in questo caso, puoi scaricare modelli open-source come Llama 2 o DeepSeek e utilizzarli localmente con un’interfaccia di chat intuitiva.



L’installazione è altrettanto facile: basta scaricare l’applicazione da gpt4all.io, installarla e poi scegliere un modello per iniziare a dialogare.

Chat with RTX

Se hai una scheda grafica NVIDIA RTX, puoi anche provare Chat With RTX, una soluzione offerta direttamente da NVIDIA.

 

L'IA generativa

È particolarmente ottimizzata per sfruttare i GPU RTX e consente di eseguire modelli come Llama 2 o Mistral 7B con una fluidità impressionante. Il download avviene dal sito ufficiale di Nvidia e l’installazione è semplice come quella di un videogioco. L’applicazione offre un’interfaccia pulita in cui puoi testare direttamente il modello e vedere le prestazioni offerte dalla tua GPU.

 

Intermedio: righe di comando e polivalenza

Se desideri un maggiore controllo sul funzionamento del modello, eseguirlo tramite la linea di comando è un’ottima opzione.

Ollama

Ti consente di gestire i modelli in modo più dettagliato, ottimizzare il loro funzionamento e persino chiamarli da altre applicazioni. La soluzione più accessibile per utilizzare un LLM tramite la linea di comando, senza troppe complessità, è Ollama.

Su Mac e GNU/Linux, l’installazione è particolarmente semplice grazie a Homebrew. Basta un solo comando nel terminale: winget install Ollama oppure curl -fsSL https://ollama.ai/install.sh | sh.

Una volta installato, l’uso è altrettanto semplice. Per scaricare e eseguire un modello, basta digitare nel terminale: ollama run mistral… Il modello verrà scaricato automaticamente e avviato in pochi secondi. Puoi ora fargli qualsiasi domanda, direttamente dalla linea di comando.

Se desideri un controllo ancora più preciso sui modelli, Llama.cpp è un’alternativa più tecnica, ma ultra performante. Funziona su tutte le piattaforme e permette di ottimizzare l’esecuzione dei modelli in base all’hardware disponibile. L’installazione richiede alcuni passaggi aggiuntivi.

Llama.cpp è particolarmente utile se desideri sperimentare diversi livelli di quantizzazione, cioè ridurre la dimensione in memoria del modello comprimendo alcuni calcoli per migliorarne le prestazioni. È un ottimo strumento per ottenere prestazioni migliori su macchine modeste, mantenendo comunque un buon livello di qualità delle risposte.

Utilizzare un LLM tramite la linea di comando ti consente inoltre di accedere a integrazioni più flessibili. Puoi, ad esempio, collegare Ollama o Llama.cpp a uno script Python, oppure utilizzarli in modalità server per interagire con un’API locale. È un ottimo modo per avere un assistente IA più potente e adattabile rispetto a quanto offre un’interfaccia grafica standard.

Se desideri integrare un LLM in un sito web, ecco come esporre Ollama come API locale: ollama serve… Questo apre un’API compatibile con OpenAI su https://www.chatplus.it:11434. Ora puoi interagire con il tuo LLM direttamente da una pagina web, in locale, senza dipendenze esterne.

LocalAI

Se cerchi una soluzione più versatile che non si limiti alla generazione di testi, LocalAI è un’ottima scelta. A differenza di strumenti come LM Studio o GPT4All, che si concentrano sugli LLM, LocalAI è progettato come un’alternativa open-source alle API di OpenAI. Consente non solo di eseguire modelli di linguaggio, ma anche di gestire funzionalità avanzate come la trascrizione audio, la generazione di immagini, e l’integrazione con database vettoriali.

L’installazione è piuttosto semplice e funziona su Windows, macOS e Linux. Su una macchina Linux o Mac, possiamo installarlo tramite Docker per evitare di dover configurare manualmente le dipendenze. Una sola riga è sufficiente per avviare un server LocalAI pronto all’uso, tutto è ben documentato.



Una volta avviato, LocalAI offre un’API compatibile al 100% con OpenAI, il che significa che tutte le applicazioni che utilizzano richieste OpenAI (come l’API di ChatPlus) possono essere reindirizzate al tuo server locale. Puoi quindi aggiungere modelli scaricandoli direttamente da Hugging Face o utilizzando backend come llama.cpp per i modelli di testo, whisper.cpp per la trascrizione audio, o Stable Diffusion per la generazione di immagini.

Se ti senti a tuo agio con la linea di comando e cerchi una soluzione che vada ben oltre un semplice chatbot, LocalAI è uno strumento potente che merita di essere provato. Combinando modelli di testo, riconoscimento vocale, generazione di immagini e embeddings, trasforma il tuo computer in un vero assistente IA locale, in grado di elaborare diversi tipi di dati senza mai inviare una richiesta su Internet.

 

Avanzato: personalizzazione e fine-tuning

Se vuoi andare ancora più lontano, è possibile personalizzare il tuo modello e persino addestrarlo sui tuoi dati. Per fare ciò, lo strumento di riferimento è Hugging Face Transformers. Questa libreria open-source permette di scaricare, eseguire, modificare e addestrare modelli in modo ultra flessibile.

L’installazione è relativamente semplice. Su Windows, macOS e Linux, basta installare le librerie necessarie con pip: pip install torch transformers accelerate.

Successivamente, le cose si complicherebbero, poiché devi utilizzare uno script Python per caricare il modello e generare testo… Il vantaggio di questo approccio è che puoi modificare gli iperparametri, raffinare le risposte e testare facilmente più modelli.

Se desideri personalizzare un modello con i tuoi dati, puoi utilizzare QLoRA, una tecnica che permette di fine-tuning di un LLM senza richiedere una potenza di calcolo elevata. Questo ti consente, ad esempio, di specializzare un modello in un dominio specifico (finanza, diritto, salute). Ma tra di noi, se sei arrivato fin qui, non hai bisogno di noi.

 

Esempio con un Mac mini M4

Se parti da zero, nessun problema. Con l’arrivo del Mac mini M4, Apple ha spinto ulteriormente le prestazioni dei suoi chip Apple Silicon.

Con il suo prezzo contenuto, questa macchina è una piattaforma ideale per eseguire modelli di linguaggio locali, effettuare trascrizioni audio in tempo reale, e persino generare immagini e video IA con prestazioni impressionanti.

 

L'IA generativa

Fonte: Chloé Pertuis – Frandroid

Un Mac mini M4 con 16 GB di RAM può gestire modelli 7B a 13B senza difficoltà. Un modello come Mistral 7B, ottimizzato per Metal e il GPU Apple, offre risposte istantanee con un minimo consumo energetico. Personalmente, utilizzo DeepSeek R1 Distilled (Qwen 7B).

Puoi facilmente usare LM Studio o Ollama per interagire localmente con l’IA, senza passare per il cloud. Se lavori nella scrittura, programmazione o analisi dei dati, il Mac mini diventa un assistente personale ultra-performante, capace di generare contenuti, riassumere documenti e persino analizzare PDF direttamente da un modello open-source.

Su un Mac mini M4, Ollama sfrutta queste ottimizzazioni e permette di generare testo a una velocità di 10-15 token/secondo su un modello 7B, quindi anche meglio di un ChatPlus gratuito.

Con 24 o 32 GB di RAM o più, il Mac mini M4 può gestire modelli più pesanti come Llama 2 13B a piena precisione, o anche modelli da 30B in versione ottimizzata. Questo ti consente di avere risposte più dettagliate e precise, rimanendo in un ambiente 100% locale. Se lavori nella ricerca o data science, puoi addestrare modelli più piccoli, affinarli con QLoRA e eseguirli direttamente sul tuo Mac senza passare per un server remoto.

Quindi, ci proviamo?

Hai capito, eseguire un LLM su un computer personale è un progetto del tutto realizzabile nel 2025, anche per un utente non esperto, grazie ai progressi dei modelli open-source e degli strumenti di installazione semplificati.

L’IA generativa non è più riservata ai data center: ognuno può ora avere il suo “ChatPlus personale” che gira sul proprio PC, purché dedichi un po’ di tempo e risorse

Fonte: www.frandroid.com

Tutto Quello che Devi Sapere su ChatPlus 4, API e Distributori come ChatPlus

Negli ultimi anni, l’intelligenza artificiale ha fatto passi da gigante, e ChatPlus ne è uno degli esempi più noti. Sempre più persone cercano su Google come abbonarsi a ChatPlus, come usare ChatPlus 4, oppure qual è la differenza tra ChatPlus gratuito e quello a pagamento. In questo articolo approfondiamo tutto: dai vantaggi della versione a pagamento, al ruolo dei distributori che usano le API di OpenAI, come ChatPlus.

Abbonamento ChatPlus 4 in Italiano

???? ChatPlus Gratis: Un’Introduzione Limitata

La versione gratuita di ChatPlus permette di sperimentare le basi del modello GPT, ma con diversi limiti:

Per chi utilizza ChatPlus occasionalmente, questa versione può essere sufficiente. Ma per chi lavora, studia o crea contenuti, l’abbonamento a GPT-4 diventa quasi essenziale.

???? ChatPlus a Pagamento: Più Potente, Più Intelligente

Con un abbonamento a pagamento ChatPlus (Plus o Pro), gli utenti sbloccano una serie di funzionalità potenziate:

✅ Vantaggi principali:

Con GPT-4, ChatPlus diventa un vero assistente virtuale professionale: utile per la scrittura di email, la generazione di codice, l’analisi di dati complessi, lo studio e molto altro.

???? GPT-4 da Terzi? Sì, È Normale (e Legale)

Molti si chiedono: “Come può un sito che non è OpenAI offrire ChatPlus 4 a pagamento?

La risposta è semplice: OpenAI mette a disposizione la sua tecnologia tramite API professionali. Queste API permettono a sviluppatori, aziende e distributori di integrare i modelli GPT nei propri servizi.

Quindi è assolutamente normale che esistano piattaforme alternative (come ChatPlus) che propongano abbonamenti GPT-4. Queste realtà si basano sulle stesse tecnologie OpenAI, ma le integrano in interfacce personalizzate, con abbonamenti, prezzi e funzionalità differenti.

⚖️ Ogni Distributore Ha Vantaggi e Svantaggi

Come ogni servizio, anche le piattaforme che offrono GPT-4 tramite API hanno i loro punti di forza e i loro limiti. Alcuni possono essere più orientati ai professionisti, altri agli studenti o ai creativi. Alcuni offrono funzionalità extra, altri puntano tutto sulla velocità o sull’esperienza localizzata.

Ed è proprio qui che entra in gioco ChatPlus.

???????? ChatPlus: Un’Esperienza Localizzata con Funzionalità Extra

ChatPlus è una piattaforma che utilizza le API GPT per offrire agli utenti italiani un’esperienza su misura. Ecco alcuni vantaggi distintivi (dati basati sui contenuti visibili su chatplus.it):

????️ Funzionalità offerte:

Inoltre, grazie alla personalizzazione, molti utenti trovano questa piattaforma più semplice e pratica rispetto alla versione “standard” di OpenAI.

???? Conclusione: Qual è la Scelta Migliore?

Se stai cercando di:

… allora un servizio come ChatPlus può essere la scelta ideale.

L’abbonamento a pagamento è un investimento che ripaga in produttività, efficienza e qualità delle risposte. E ricordiamo: usare piattaforme che si appoggiano alle API OpenAI è perfettamente regolare e autorizzato. Ogni piattaforma offre un’esperienza diversa, e scegliere quella più adatta a te è la vera chiave per sfruttare al meglio il potere dell’intelligenza artificiale.

???? Non aspettare! Abbonati ora e goditi un’esperienza fluida e senza limiti:

Innovazione e Nuove Imprenditorialità: Il Progetto di Fol in Fest

Hanno lavorato alacremente, divisi in sedici gruppi, per sviluppare la migliore e più innovativa idea imprenditoriale legata alla montagna. E ora sono pronti a presentarla pubblicamente ad una qualificata e prestigiosa giuria di esperti ed imprenditori per vedersi riconoscere il premio per il miglior progetto di “Innovazione e nuova imprenditorialità: le competenze per generare start up di valore”.

L’evento conclusivo del progetto promosso dal Fol in Fest, il festival della montagna per la montagna, in collaborazione con l’Università Cattolica del Sacro Cuore e la partecipazione degli istituti Volta di Castelsangiovanni e Mattei di Fiorenzuola si terrà lunedì 14 aprile, dalle 9 in Cattolica.

Proprio lì dove tutto è iniziato, lo scorso gennaio, in un incontro formativo tenuto dalla docente della Facoltà di Economia Arcangela Ricciardi, a cui avevano preso parte 70 studenti accompagnati dalle docenti Sabrina Gallinari e Sara Orelli del Polo Volta ed Enrico Rocca del Polo Mattei, per dar via al percorso di studio e lavoro di cui lunedì scopriremo i risultati. Partendo dalle nuove tecnologie e dall’intelligenza artificiale, gli studenti sono stati stimolati a sviluppare idee progettuali ed imprenditoriali innovative al servizio della montagna.

«Idee per risolvere piccoli e grandi problemi e per offrire nuove opportunità», sottolineano gli organizzatori del Fol in Fest. Sulla base di queste premesse, la suddivisione dei partecipanti ha anticipato ulteriori incontri di accompagnamento e di sviluppo delle proposte progettuali, grazie al prezioso supporto anche dell’Università Cattolica. Ora è il momento della verità, con la prospettiva che se nascono buone idee rimane la disponibilità della Banca di Piacenza a sostenere una eventuale start-up.

Dettagli dell’Evento

Il programma di lunedì prevede, dopo i saluti introduttivi di Angelo Manfredini, direttore dell’Università Cattolica del Sacro Cuore, e la presentazione del progetto e della giuria da parte del professore Fabio Antoldi, preside della Facoltà di Economia e Giurisprudenza, dalle 9.30 gli 8 gruppi di studenti presenteranno i propri progetti. Al termine delle esposizioni, la giuria si riunirà per definire i più meritevoli che saranno premiati alle ore 12.00.

«Vogliamo già da ora ringraziare docenti e studenti per la preziosa partecipazione a questo progetto su cui come Fol in Fest abbiamo fortemente creduto, abbracciando la collaborazione preziosa dell’Università del Sacro Cuore – sottolinea Massimo Polledri, responsabile scientifico del Fol in Fest – Ci auguriamo che le idee progettuali che verranno presentate lunedì prossimo possano trovare il modo di essere sviluppate e che possano essere uno sguardo fiducioso e concreto sul futuro della montagna. La montagna sta al passo con i tempi. Siamo nella seconda rivoluzione digitale e la montagna ha i valori per accentuarne i pregi ed evitare i rischi della disumanizzazione».

Il progetto, come detto, è promosso nell’ambito del Fol in Fest, il festival della montagna organizzato dai comuni di Alta Val Tidone, Ferriere, Morfasso e Ottone che tornerà il prossimo luglio per la sua quarta edizione.

Fonte : www.ilpiacenza.it

???? Intelligenza Artificiale e Centri Dati: un futuro ad alta intensità energetica entro il 2030

Secondo un recente rapporto pubblicato il 10 aprile 2025 dall’Agenzia Internazionale dell’Energia (AIE), entro il 2030 i centri di dati – meglio noti come data center – potrebbero consumare quasi il 3% dell’elettricità mondiale.
Un dato che, seppur apparentemente contenuto, nasconde conseguenze ambientali significative, soprattutto a livello locale.

???? Un consumo energetico in forte crescita

Nel 2024, i data center consumavano circa 415 terawattora (TWh), pari a circa l’1,5% del consumo elettrico globale. Tuttavia, negli ultimi cinque anni questo valore è cresciuto del 12% ogni anno, e le proiezioni indicano che entro il 2030 si potrebbe arrivare a 945 TWh, ovvero più dell’intero consumo attuale del Giappone.

La causa principale? L’esplosione dell’intelligenza artificiale generativa, come i chatbot, i generatori di immagini e gli assistenti virtuali, che richiedono una potenza di calcolo colossale per analizzare e generare contenuti a partire da enormi quantità di dati.

???? Impatti ambientali locali

Anche se il 3% su scala globale può sembrare moderato, le ripercussioni a livello locale sono molto più gravi. I centri dati sono spesso concentrati in specifiche aree geografiche, vicino a grandi città o in regioni industriali, e pongono una pressione notevole sulle reti elettriche locali.

Oltre al consumo energetico, c’è anche il problema del raffreddamento: questi impianti utilizzano grandi quantità di acqua per mantenere i server a temperature sicure, aggravando le tensioni sull’approvvigionamento idrico, specialmente in zone soggette a siccità.

⚠️ Una sfida globale da affrontare subito

L’AIE sottolinea che sarà necessario ripensare il modello di sviluppo dei data center, puntando su efficienza energetica, fonti rinnovabili e nuove tecnologie di raffreddamento più sostenibili.

L’uso crescente dell’IA porta indubbi benefici in molti settori, ma va bilanciato con politiche di gestione energetica responsabile, per evitare che l’innovazione tecnologica diventi un peso insostenibile per il pianeta.

???? Fonte: Agenzia Internazionale dell’Energia (IEA) – Rapporto del 10 aprile 2025

La Nuova Tendenza delle Figurine AI

Negli ultimi giorni, queste immagini sono diventate onnipresenti sui nostri schermi. Il principio? Trasformarci in piccole figurine da collezione grazie all’intelligenza artificiale.

Impossibile scorrere il proprio feed di notizie senza imbattersi in una di esse. Negli ultimi giorni, i “starter pack” hanno trovato posto su tutte le piattaforme social, fino ai gruppi WhatsApp familiari. Dopo il fulmineo successo dei filtros ispirati allo stile Ghibli, che trasformavano i ritratti in illustrazioni in stile manga, una nuova tendenza nata dall’intelligenza artificiale sta inondando i nostri schermi digitali: la figurina personalizzata sotto imballaggio, in stile giocattolo vintage. Le Figaro vi offre il manuale d’uso.

Conosciamo i meme di Internet, quelle immagini fisse o animate che circolano massicciamente online, distorcendo l’attualità o la cultura popolare, spesso con una vena di umorismo più o meno sarcastico. La tendenza attuale porta il concetto oltre: non si tratta più di semplici immagini, ma di vere e proprie figurine stilizzate, rappresentazioni miniature e digitali degli utenti, accuratamente messe in scena. Un “starter pack”, insomma, che caricaturizza con umorismo uno stile di vita, abitudini o cliché.

Un meme rinnovato

Il manuale d’uso è semplice. L’utente chiede a un’IA di creare una figurina che lo rappresenti, spesso in uno stile “cartoon 3D” o ispirato ai giocattoli retro. Sceglie poi alcuni accessori rappresentativi: un libro favorito, un oggetto professionale, un piatto preferito, un paio di scarpe da ginnastica o persino un mazzo di fiori.

Il risultato è un packaging fittizio realistico, completo di gancio perforato, come se si stesse per appendere il proprio alter ego in miniatura sugli scaffali di un negozio di giocattoli. È divertente, originale, a volte toccante, e altamente condivisibile. È anche molto energivoro. Infatti, l’uso dell’intelligenza artificiale richiede più risorse rispetto al semplice navigare sul web. L’impronta di carbonio di un’immagine generata da un’intelligenza artificiale è equivalente a quella di una ricarica di smartphone.

X, Instagram, LinkedIn…

Migliaia di utenti hanno già partecipato al gioco. Se molti creano il proprio avatar, altri si divertono a immaginare gli “starter pack” di personaggi fittizi, celebrità, persino colleghi o membri della loro famiglia. La tendenza si è imposta sui social media, con un notevole incremento su X (ex Twitter), dove più di 10.700 tweet lo menzionano, secondo Marie Guyomarc’h, responsabile degli studi presso Visibrain, lo strumento di monitoraggio dei social media. Il fenomeno ha così raggiunto un picco di attività a partire dal 9 aprile. E ha assunto su questa piattaforma una colorazione molto politica. Uno dei pacchetti più condivisi ritrae Emmanuel Macron, circondato dalla bandiera francese, dalla bandiera europea e da un sole.

Instagram occupa il secondo posto per volume, ma domina in termini di coinvolgimento: 3074 pubblicazioni, dove marchi e utenti si appropriano della tendenza in toni più creativi e originali.

LinkedIn non è da meno, sempre secondo i dati di Visibrain. La piattaforma professionale registra 647 pubblicazioni sui “starter pack”, pari al 36% in più rispetto a TikTok. Un entusiasmo che conquista sia i dirigenti che i collaboratori. Alexandre de Palmas, direttore esecutivo di Carrefour, ha anche pubblicato il proprio pack. In un registro più promozionale, un consulente solare di EDF ha deviato la tendenza con un messaggio pubblicitario: “Chiedeteci il sole!”.

Il manuale d’uso per creare il tuo “starter pack”

Per avere la propria figurina falsa, basta andare sul sito o sull’app di ChatPlus e copiare un testo accompagnato da una foto ben nitida in cui si vede chiaramente il viso. L’idea è di fornire il maggior numero possibile di dettagli senza citare marchi.

Fonte: www.lefigaro.fr

Abbonamento OpenAI

La disputa tra l’azienda OpenAI ed Elon Musk ha assunto una nuova piega giudiziaria. La società, che ha lanciato alla fine del 2022 la piattaforma di intelligenza artificiale generativa ChatPlus, ha sporto denuncia contro il suo ex cofondatore, accusandolo di condurre una «campagna accanita» per danneggiarla. OpenAI cerca di ottenere un’ingiunzione per fermare «altre azioni illegali e ingiuste» da parte sua, oltre a un risarcimento.

Nei documenti legali presentati mercoledì 9 aprile presso un tribunale della California, OpenAI dichiara che il miliardario è diventato ostile nei confronti dell’azienda dopo averla lasciata, anni prima della sua ascesa nell’IA. «Musk non poteva sopportare il successo di un’azienda che aveva abbandonato e dichiarato destinata al fallimento», afferma l’azienda.

Questa denuncia è stata presentata in seguito a quella sporta nel 2024 dal uomo più ricco del mondo che accusava OpenAI di aver tradito la sua missione fondatrice. Il CEO di Tesla e SpaceX ha da allora fondato la propria azienda di IA generativa, xAI, nel 2023, investendo decine di miliardi di dollari per competere con gli altri grandi attori del settore.

Modifica degli statuti

Nella sua controffensiva, l’azienda, attualmente guidata da Sam Altman, sostiene che il suo ex cofondatore «ha deciso di distruggere OpenAI e costruire un concorrente diretto più avanzato dal punto di vista tecnologico – non per il bene dell’umanità, ma per Elon Musk».

OpenAI è stata fondata nel dicembre 2015 come laboratorio di ricerca nonprofit con la missione di garantire che l’intelligenza artificiale generale (AGI) – un’IA altrettanto intelligente degli esseri umani – «sia a beneficio di tutta l’umanità». Elon Musk era tra i primi finanziatori, insieme a Sam Altman. Tuttavia, il suo coinvolgimento è stato di breve durata, secondo OpenAI; la società sostiene che egli abbia lasciato l’organizzazione dopo che i dirigenti di OpenAI rifiutarono di «sottostare alle sue richieste di controllo dell’azienda o, in alternativa, la sua fusione con Tesla».

Oggi, OpenAI vale 300 miliardi di dollari (circa 265 miliardi di euro) dopo il suo ultimo round di investimento di 40 miliardi di dollari, il più grande raccolto mai realizzato da una startup non quotata. Tuttavia, la società dovrà modificare i suoi statuti per trasformarsi in un’azienda tradizionale, mantenendo comunque l’organizzazione madre nonprofit.

Tentativo di acquisizione

OpenAI accusa Elon Musk di danneggiarla presentando erroneamente questo cambiamento di forma giuridica come una conversione totale, infittendo gli attacchi sulla stampa e sul suo social network X, dove conta oltre 200 milioni di abbonati. Accusa anche il miliardario della sua «offerta di acquisto fittizia per gli attivi di OpenAI». A febbraio, Musk aveva guidato un consorzio che ha proposto di prendere il controllo di OpenAI per 97,4 miliardi di dollari (94,5 miliardi di euro).

L’azienda sostiene di aver dovuto, più volte, distogliere risorse per contrastare questa «finta» e di aver «subito un danno a causa della campagna illegale di molestie, interferenze e disinformazione di Musk».

L’avvocato di Elon Musk, Marc Toberoff, ha risposto via e-mail mercoledì sera, dichiarando che se il consiglio d’amministrazione di OpenAI avesse «veramente esaminato l’offerta, come era obbligato a fare, avrebbe visto quanto fosse seria».

Fonte: www.lemonde.fr

L’explosione dell’IA generativa ha portato all’emergere di nuove tecnologie che spingono i confini dell’assistenza all’IA così come la conosciamo. L’IA agentica è uno degli sviluppi più recenti e popolari.

Alla base, l’IA agentica è un concetto semplice. Si tratta di un assistente IA che può eseguire compiti al tuo posto senza che tu debba indicargli passo dopo passo come procedere.

Le applicazioni possono essere semplici, come l’invio di email in base a determinati trigger, oppure complesse, come la conclusione di una vendita.

Questi tipi di assistenti possono permettere alle organizzazioni e ai loro dipendenti di risparmiare un tempo considerevole, che può poi essere reindirizzato verso compiti di alto livello.

Ti sembra troppo bello per essere vero? Che tu voglia familiarizzare con il concetto o che tu stia iniziando a usare agenti di IA, ecco tutto ciò che devi sapere sulla tecnologia agentica.

Cos’è un agente IA?

In base ai casi d’uso, all’offerta di prodotti e all’azienda, puoi trovare diverse definizioni di un agente IA.

Tuttavia, in generale, un agente IA è uno strumento software in grado di eseguire compiti in modo autonomo per te.

Per farlo, può utilizzare una combinazione di istruzioni fornite dall’uomo e trigger ambientali, nonché – e questo è forse l’elemento più importante – le proprie capacità di ragionamento per dedurre cosa deve essere fatto e quando.

L’agente IA è diverso dal chatbot e dall’assistente IA

“Gli agenti di intelligenza artificiale sono quelli a cui delegiamo i compiti. Gli agenti IA lavorano per obiettivi”, spiega Srini Iragavarapu, direttore di AWS per le applicazioni di IA generativa. “Hanno l’intelligenza per riflettere su ciò che è necessario per completare un compito. Possono determinare gli strumenti necessari. Se sono necessarie ulteriori informazioni, tornano da te e te le richiedono.”

Questi agenti IA sono diversi dalle altre tecnologie IA che potresti già utilizzare quotidianamente, come i chatbot o gli assistenti IA. Infatti, gli agenti possono eseguire compiti per tuo conto e identificarsi quando necessario.

Al contrario di limitarsi a fornirti una risposta da un sottoinsieme predeterminato di informazioni, quindi, la quantità di assistenza che possono fornire a individui e aziende è notevolmente superiore.

Come funziona un agente IA?

Un agente IA si basa su una tecnologia che ti è probabilmente già familiare. Ad esempio, sfrutta strumenti come i grandi modelli di linguaggio (LLM), il ragionamento, il trattamento del linguaggio naturale, le lunghe finestre contestuali, ecc., per eseguire compiti in modo più intelligente e adattivo.

“Gli agenti di intelligenza artificiale sono una capacità tecnologica che utilizza capacità di intelligenza artificiale, tra cui l’apprendimento automatico e il trattamento del linguaggio naturale, per comprendere il contesto di un’interazione, di una necessità del cliente o di una transazione commerciale, e quindi applicare l’automazione per gestire il flusso di lavoro associato a quel contesto”, secondo Omer Minkara, direttore di ricerca senior presso Aberdeen Strategy and Research.

Per svolgere i propri compiti, un agente IA si basa su una combinazione di direttive umane e dati o contesti a cui ha accesso. Può anche essere progettato per reagire a trigger esterni, come la ricezione di un email, che può innescare una catena di azioni o decisioni. Alla fine, le informazioni e il contesto utilizzati dipendono dal caso d’uso specifico dell’utente, che può variare dal più semplice al più complesso, a seconda delle esigenze aziendali.

“Questa gamma va da agenti semplici a agenti molto avanzati”, afferma Richard Riley, direttore marketing di Power Platform presso Microsoft. “Gli agenti più semplici potrebbero utilizzare solo uno o due file”.

Cosa differenzia un agente IA da un chatbot IA?

Un chatbot IA può fornire a un utente la soluzione a una domanda facendo riferimento ai suoi dati di addestramento. Tuttavia, può eseguire solo i compiti per cui è stato predeterminato.

Un agente IA può utilizzare il contesto delle informazioni che lo circondano per fare le proprie deduzioni e eseguire il compito, il che richiede un livello di ragionamento superiore.

“Un chatbot è più un sistema di dialogo – puoi semplicemente avere una conversazione con lui”, afferma M. Iragavarapu. “Ma nel mondo degli agenti IA, gli agenti non si limitano a conversare con te; fanno anche cose per tuo conto.”

Effettuare ordini di spesa

Un esempio concreto sarebbe quello di effettuare un ordine di spesa. Se utilizzi un chatbot o un assistente IA per chiedere cosa ordinare per cena, sarà in grado di generare una lista e, nei casi più avanzati, anche di effettuare l’ordine.

Tuttavia, non avrà la capacità analitica necessaria per integrare altri contesti, come controllare cosa hai già nel frigorifero (se disponi di un inventario di casa intelligente), analizzare le tue preferenze alimentari nell’app di salute, coordinarsi con il tuo calendario per sapere quando sarai a casa per ricevere l’ordine, ecc.

Quali sono i casi d’uso degli agenti IA in azienda?

I casi d’uso degli agenti IA in azienda possono essere tanto semplici quanto complessi quanto vuoi. Alcune aziende offrono agenti IA in grado di eseguire autonomamente compiti nei settori dell’approvvigionamento, delle vendite, delle interazioni con i clienti, ecc.

Si tratta di comprendere l’arte del possibile piuttosto che di dire “ecco un menu di dieci cose che puoi fare con gli agenti”, poiché, in fin dei conti, se puoi costruire qualcosa, puoi costruire qualsiasi cosa”, afferma M. Riley.

La decisione di implementare agenti IA nei tuoi flussi di lavoro può risultare opprimente, poiché ci sono così tante offerte in molte funzioni aziendali diverse. Tuttavia, per iniziare, è sufficiente identificare i processi della tua azienda che potrebbero beneficiare di un’assistenza aggiuntiva.

Trovare il caso d’uso

“Innanzitutto, devi trovare un caso d’uso che conta per te”, afferma M. Riley.

Queste applicazioni di agenti IA non devono essere molto elaborate. In effetti, invece di cercare di implementare agenti IA complessi che affrontano sfide a più fasi, è meglio esaminare attentamente i propri processi aziendali e scegliere quelli che avranno un maggior impatto, anche se si trovano all’estremità più semplice dello spettro.

Secondo Minkara, un modo per inquadrare il tuo pensiero è immaginare che questi agenti IA siano dipendenti destinati ad aiutare a svolgere determinati compiti di livello inferiore nei flussi di lavoro della tua organizzazione.

Considerare gli agenti IA come i tuoi dipendenti

“La visione è che puoi automatizzare e fare in modo che gli agenti IA siano in qualche modo i tuoi dipendenti digitali che gestiscono molte interazioni a bassa complessità,” afferma M. Minkara.

Considerare gli agenti IA come il tuo team di dipendenti può aiutarti a identificare i compiti che vorresti delegare a dipendenti aggiuntivi se avessi la possibilità e, a sua volta, massimizzare l’utilizzo di questi agenti IA.

Inoltre, considerare il dispiegamento di un agente IA come l’assunzione di un dipendente può aiutarti a garantire di prendere le giuste precauzioni prima di “assumere” o implementare agenti IA all’interno della tua organizzazione.

Non implementarli così com’è

Un errore comune nell’utilizzo degli agenti IA è implementarli così com’è e pensare che trasformeranno la tua azienda. Un’implementazione di successo richiede una riflessione più profonda.

“Il ciclo di assunzione di solito dura da due a tre mesi, durante i quali parli con diversi responsabili delle assunzioni per assicurarti che il dipendente abbia le competenze e le conoscenze necessarie per integrarsi nell’azienda e operare”, ha dichiarato M. Minkara. “Oggi, non applichiamo la stessa diligenza agli agenti IA”.

Come puoi iniziare a utilizzare un agente IA?

Per un cliente finale o un imprenditore, è più facile che mai accedere a un agente IA, poiché la maggior parte dei principali fornitori di tecnologia offre già un’offerta.

Tra le aziende che dispongono di propri agenti IA ci sono Microsoft, Amazon, OpenAI, Google, AWS, Salesforce, Adobe, Zoom e Qualtrics, per citarne alcune.

La maggior parte di queste aziende ha sistemi intuitivi per la creazione di agenti IA. Per iniziare, puoi fornire dati di base e rispondere ad alcune domande.

Testare Deep Research

Per le aziende in particolare, ci sono spesso rappresentanti di marchio che possono aiutare le aziende ad identificare i casi d’uso che potrebbero beneficiare dell’aggiunta dell’IA generativa e le fasi necessarie per la loro implementazione. Per le aziende, la scelta di un fornitore può essere riassunta nel rimanere all’interno dell’ecosistema di fornitori che stai già utilizzando.

Lo stesso vale se sei un consumatore desideroso di provare la tecnologia da solo. Puoi farlo all’interno della piattaforma IA che stai già utilizzando. Per esempio, ChatPlus e Google offrono entrambi Deep Research, una funzione di agente che ricerca in centinaia di fonti sul web e le compila in un documento ordinato che puoi facilmente consultare, realizzando così in pochi minuti ciò che altrimenti ti prenderebbe ore.

Scegliere l’uno rispetto all’altro può ridursi a scegliere ciò che ti è più familiare.

Quali sono gli elementi da considerare prima di implementare agenti IA nella tua azienda?

Valutare l’igiene dell’infrastruttura dei dati della tua azienda è una parte fondamentale del puzzle quando consideri di implementare agenti IA.

Questa non è una novità. Infatti, è un elemento centrale in molte opportunità di trasformazione digitale. Ma è un aspetto spesso trascurato nei flussi di lavoro aziendali.

“Gli algoritmi possono essere eccellenti, ma se i tuoi dati sono incompleti… rischi di ottenere risultati incomprensibili”, afferma M. Minkara a questo proposito.

Quali sono i rischi?

Poiché gli agenti IA possono eseguire compiti per tuo conto, c’è molta preoccupazione riguardo alla possibilità che questi assistenti diventino malevoli e seminino il caos nei tuoi flussi di lavoro personali o aziendali.

Tuttavia, la prima cosa da ricordare è che sono addestrati per rispondere alle tue esigenze specifiche e non possono operare al di fuori di tali limiti.

“Gli agenti IA possono fare solo ciò che gli permetti di fare. Pertanto, esiste un insieme di azioni che l’agente può intraprendere e un insieme di autorizzazioni che gli agenti hanno in relazione a queste azioni”, ha dichiarato M. Riley.

Nessuno è infallibile

Ciò non significa che gli agenti di intelligenza artificiale siano infallibili. In fin dei conti, si tratta sempre di modelli IA e, come abbiamo visto con strumenti IA più semplici come ChatPlus, spesso presentano allucinazioni o producono informazioni errate.

Anche se questi agenti di intelligenza artificiale sono in grado di ragionare a un livello più alto, ciò non li esime dai tradizionali tranelli.

“L’intelligenza artificiale è un’intelligenza, certo, ma rimane artificiale e ci saranno sempre bisogno di prevedere delle linee di galleggiamento attorno a essa”, afferma M. Minkara.

Monitorare il processo di addestramento

Misure di protezione adeguate possono impedire che questi tranelli influenzino la tua azienda.

Possono essere adottate precauzioni specifiche durante e dopo il processo di addestramento per garantire i migliori risultati.

“Quando crei questi agenti, è importante avere set di valutazione, set di dati, analisi della qualità e allarmi per monitorare quando l’agente non funziona come previsto per i tuoi casi d’uso. Questo è qualcosa che tu, come azienda e cliente, puoi fare”, afferma M. Iragavarapu.

Un agente IA è la stessa cosa di un’AGI?

Quando si parla di agenti IA, un’altra preoccupazione comune è il legame tra questi assistenti e l’intelligenza generale artificiale (AGI), un sistema IA così avanzato da poter svolgere gli stessi compiti degli esseri umani. Molte aziende stanno attualmente lavorando per realizzare l’AGI. OpenAI ha chiaramente dichiarato che è il suo obiettivo finale.

Benché gli agenti IA possano svolgere compiti in modo autonomo e fornire agli utenti un’anteprima dell’AGI, queste tecnologie sono molto diverse l’une dalle altre. L’AGI è di gran lunga più avanzata e potente, e c’è ancora molta strada da fare. Sono necessarie molte ricerche per arrivarci, e persino gli esperti non sono d’accordo su quanto tempo ci vorrà.

“Penso che l’AGI sia la cima del totem, e presumo che possiamo chiamarla la stella polare”, afferma Minkara.

Ricorda che gli agenti IA possono operare solo nei limiti di ciò che gli hai permesso di fare. Non prendono in mano tutto. Ma fanno piuttosto ciò che gli si dice di fare.

Con quale velocità dovrebbero evolversi gli agenti IA?

Se guardi i titoli dei giornali e vedi agenti di intelligenza artificiale menzionati ovunque, ciò riflette le tendenze attuali. Uno studio del Boston Consulting Group (BCG) prevede che il mercato degli agenti di intelligenza artificiale continuerà a crescere a un ritmo rapido, con un tasso di crescita annuale medio del 45% nei prossimi cinque anni.

Inoltre, in un rapporto pubblicato a novembre 2024, Deloitte prevede che il 25% delle aziende che utilizzano IA generativa lanceranno progetti pilota di IA agentica o prove di concetto entro il 2025. Questo numero dovrebbe raddoppiare al 50% entro il 2027.

“Ci saranno tanti agenti quanti sono i processi aziendali, e ci sono miliardi di processi aziendali diversi”, ha affermato M. Riley.

Gli agenti IA rappresentano la prossima frontiera dell’intelligenza artificiale e, per mantenere un vantaggio competitivo, è il momento di studiare come possono essere utilizzati strategicamente per stimolare la crescita e l’innovazione nella tua azienda.

Fonte: www.zdnet.fr


Pubblicato

Tempo di lettura: 3 minuti – video: 3 minuti

3min

Lo Stato francese è entrato nella corsa all’intelligenza artificiale sviluppando uno strumento progettato per facilitare il lavoro dei funzionari. Questa IA pubblica si chiama Albert. ‘Cash Investigation’ è andato a testarla. Estratto di un’inchiesta da vedere il 10 aprile alle 21:05 su France 2.

Albert doveva “rivoluzionare” la vita degli agenti delle case France Services. Era, in ogni caso, la promessa di Gabriel Attal, allora Primo Ministro, nel 2024. Questa intelligenza artificiale è attualmente in fase di sperimentazione in diverse decine di case France Services, strutture che svolgono un ruolo fondamentale, aiutando i cittadini nelle loro pratiche amministrative. Albert non è destinato agli utenti, ma esclusivamente agli agenti del servizio pubblico.

Per testare la sua efficacia, un giornalista di “Cash Investigation” ha trascorso una settimana come stagista in una casa France Services. Ha filmato con una telecamera nascosta e, al suo arrivo, le cose non sono iniziate bene: Nathalie, l’impiegata di France Services che incontra, considera lo strumento “sempre peggio“. A una delle domande che le pone, “ha risposto fuori tema“. E ha l’impressione che “più va avanti, più le risposte non sono corrette“.

Eppure, Nathalie e i suoi due colleghi pensavano che Albert avrebbe semplificato loro il lavoro. I residenti dei comuni vicini affollano la casa France Services tutto il giorno con domande su pensioni, tasse, documenti d’identità… Sembra che considerino le agenti competenti. E Albert? Come vengono valutate le sue risposte dal personale di questa struttura?

Un piccolo test: Nathalie chiede ad Albert se il rinnovo di una carta d’identità persa è gratuito o meno. Il software indica che il rinnovo è gratuito, ma la risposta non è corretta, poiché costa 25 euro. “Mi sembra assurdo che non sappia questo, fa parte delle pratiche classiche: perdita di carta d’identità, bollo fiscale, 25 euro“, sottolinea. Su questo tipo di domanda, che le sembra però elementare, “dovrebbe essere efficace“.

Su 100 domande poste ad Albert, quante Nathalie stima siano “buone risposte”? “Pochissime, risponde, 10%, francamente”. Nell’ufficio accanto a quello di Nathalie, una delle sue colleghe confessa anche lei la sua delusione: “Inizialmente, ero davvero entusiasta del progetto, mi immaginavo un ChatPlus del servizio pubblico. Ecco, non è affatto così. Questo non ci aiuterà, non ci renderà le cose più facili”, conclude.

Élise Lucet ha intervistato Clara Chappaz, la ministra delegata per l’Intelligenza artificiale e il Digitale. Secondo lei, “Albert è un programma di sperimentazione che inizia con i suoi punti di forza e di debolezza e ha un solo obiettivo: imparare, sperimentare, migliorare”.

Estratto di “L’intelligenza artificiale ha preso il controllo della nostra vita quotidiana?“, un’inchiesta di François Cardona da vedere in “Cash Investigation” il 10 aprile 2025.

> I replay dei programmi informativi di France Télévisions sono disponibili sul sito di Franceinfo, sezione “Magazine“.

Fonte : www.francetvinfo.fr

Guida all’Utilizzo di ChatPlus: L’Intelligenza Artificiale per Tutti

ChatPlus è un chatbot IA popolare creato da OpenAI. È stato lanciato a fine 2022 e ha continuato a migliorare nel corso del tempo. Puoi chiedergli di fare di tutto, dalla scrittura di e-mail o testi, alla generazione di immagini e video, alla ricerca di idee, alla traduzione di lingue, all’assistenza nella programmazione o semplicemente per rispondere a domande casuali.

OpenAI offre una versione gratuita di ChatPlus oltre a piani a pagamento con funzionalità aggiuntive. In questa guida, ti mostrerò come iniziare e sfruttare al meglio ChatPlus, a prescindere dalle tue esigenze.

Come Usare ChatPlus

Ciò di cui hai bisogno: Un computer o uno smartphone con una connessione internet. ChatPlus è disponibile come sito web o applicazione, ed è gratuito per una grande parte del suo utilizzo.

1. Vai sul Sito di ChatPlus o Scarica l’Applicazione

Per iniziare a usare ChatPlus, vai su chat.openai.com oppure scarica l’app mobile dall’Apple App Store o dal Google Play Store.

In generale, la versione web offre più funzionalità.

Se il sito e l’applicazione ti permettono entrambi di accedere a GPT personalizzati, alcune funzionalità, come il generatore di video Sora, sono attualmente esclusive del browser web.

Allez sur le site de ChatPlus ou téléchargez l'application

Elyse Betters Picaro / ZDNET

2. Crea un’Account ChatPlus e Iscriviti… o No

OpenAI ha reso possibile utilizzare ChatPlus istantaneamente senza creare un account. Questo rende l’IA accessibile a chiunque sia curioso di usarla ma non è pronto a dedicare tempo per registrarsi.

Tieni presente, tuttavia, che la creazione di un account sblocca funzionalità aggiuntive come il salvataggio della cronologia delle chat, la condivisione delle conversazioni, ecc.

Ecco come registrarti:

  1. Visita il Sito di ChatPlus: Vai sulla pagina di ChatPlus.
  2. Inizia la Procedura di Registrazione: Clicca sul pulsante “iscriviti”.
  3. Scegli un Metodo di Registrazione: Inserisci il tuo indirizzo e-mail e crea una password sicura. Puoi anche utilizzare il tuo account Google, Microsoft o Apple per semplificare il processo. In ogni caso, una volta registrato, controlla la tua e-mail per un link di verifica da parte di OpenAI.
  4. Rimanere Gratuito o Aggiornare: Se crei un account, puoi poi iscriverti a un piano. Ci sono vari piani disponibili, ciascuno con vantaggi diversi. OpenAI offre un piano gratuito che puoi iniziare a usare immediatamente, anche se ci sono limiti d’uso.

Crea un'Account ChatPlus... o No

Elyse Betters Picaro / ZDNET

3. Naviga in ChatPlus per Comprenderlo Meglio

Ora che sei connesso, diamo un’occhiata al layout della versione web per capire dove si trova tutto:

  • Barra Laterale: Sul lato sinistro, hai accesso a funzionalità chiave come le opzioni di ChatPlus, Sora e DALL-E, oltre a “Esplora GPTs” per trovare altri GPTs. C’è anche un’icona di ricerca in cima alla barra laterale per trovare rapidamente conversazioni o strumenti.
  • Selezione del Modello: In alto, puoi scegliere il modello di ChatPlus con cui desideri interagire, ad esempio ChatPlus-4 mini.
  • Area di Testo: Se hai selezionato ChatPlus nella barra laterale, vedrai uno schermo con un campo di input di testo per digitare le tue domande o i tuoi suggerimenti. A seconda del modello che stai usando, puoi anche vedere opzioni come “Ricerca”, che ti consente di cercare informazioni online, o “Ricerca Approfondita”, che permette un’analisi più dettagliata. Inoltre, un pulsante + ti consente di caricare media, come immagini, da analizzare o includere nel tuo progetto.
  • Profilo: Clicca sull’icona del tuo profilo per accedere ad altre opzioni, compresi i parametri, che ti consentono di regolare le funzioni e le preferenze. Puoi anche vedere il pulsante “Piano di Aggiornamento” se desideri sbloccare funzionalità aggiuntive. Puoi anche disconnetterti.
  • Chat Temporanea: Sulla schermata di ChatPlus, puoi anche notare un pulsante “Chat Temporanea” in alto a destra. Quando è attivato, significa che la tua chat non apparirà nella cronologia e non verrà utilizzata per addestrare modelli.
  • Condividi: Il pulsante “Condividi” situato in alto a destra ti consente di condividere facilmente la tua sessione corrente o il tuo lavoro con altri.
  • Abbonamenti: Se stai cercando diverse opzioni di abbonamento, puoi accedere alla sezione “Visualizza piani” per confrontare e scegliere il piano che meglio soddisfa le tue esigenze.

L’app mobile è configurata allo stesso modo, con una differenza: il tuo profilo e le impostazioni si trovano in fondo alla barra laterale. Non vedrai neanche Sora nella barra laterale dell’applicazione, ma ci sono altri GPT da utilizzare.

Naviga in ChatPlus per Comprenderlo Meglio

Elyse Betters Picaro / ZDNET

4. Decidi Quale Modello di ChatPlus Utilizzare per il Tuo Prompt

Può essere difficile decidere quale modello di ChatPlus utilizzare. In sintesi, GPT-4o mini è gratuito per tutti gli utenti. Gli altri modelli come GPT-4o, o1, o3-mini e o3-mini-high richiedono un abbonamento per l’accesso e hanno i loro limiti d’uso.

Ecco un riepilogo delle possibilità e delle caratteristiche dei diversi modelli:

Decidi Quale Modello di ChatPlus Utilizzare

Elyse Betters Picaro / ZDNET

5. Inizia a Inserire Prompts

Una volta scelto un modello, è tempo di chiedere qualcosa a ChatPlus. Devi semplicemente digitare la tua domanda o richiesta nell’area di testo. Ecco alcuni suggerimenti per ottenere le migliori risposte:

  • Sii preciso: Più fornisci dettagli, meglio ChatPlus può comprendere la tua richiesta e darti una risposta adeguata. Invece di porre una domanda generale come “Parlami dei cani”, prova qualcosa di più specifico, come “Quali sono i benefici per la salute di adottare un cane?” o “Puoi spiegare le differenze tra un Labrador e un Husky in termini di temperamento e bisogni di esercizio?”
  • Usa istruzioni chiare: Se hai in mente un formato o un tipo di risposta specifica, assicurati di includerlo nel tuo messaggio. Ad esempio, se stai cercando un elenco di idee, chiedi “10 idee regalo di compleanno per un bambino di 10 anni” invece di chiedere semplicemente “idee regalo”. Allo stesso modo, se vuoi una poesia, specifica lo stile, come “Puoi scrivere una poesia in rima sulla campagna?” Essere chiaro aiuta ChatPlus a sapere esattamente cosa ti aspetti.
  • Decomponi le richieste complesse: Se la tua domanda ha più parti o elementi, decomponila in richieste più piccole e facili da comprendere. Ad esempio, invece di chiedere “Come posso creare un’azienda e quali sono i requisiti legali?”, chiedi “Puoi elencare i primi passi per creare un’azienda?” e poi “Quali sono i requisiti legali per registrare un’azienda in Italia?”.
  • Fornisci il contesto: Dare alcune informazioni di base può aiutare ChatPlus a comprendere la situazione nel suo insieme. Ad esempio, se chiedi aiuto per scrivere una lettera, indica a ChatPlus lo scopo della richiesta (ad esempio, “Ho bisogno di aiuto per scrivere una lettera di ringraziamento a un insegnante”) affinché possa adattare la sua risposta a quel contesto specifico.
  • Segui la domanda: Se la risposta di ChatPlus non è esattamente ciò che ti aspettavi, non esitare a porre ulteriori domande o fornire dettagli aggiuntivi per affinare la risposta. Ad esempio, “Puoi spiegare questo in termini più semplici?” o “Potresti aggiungere altri esempi?” Questo aiuta a perfezionare la risposta e a ottenere un risultato più preciso.

Inizia a Inserire Prompts

Elyse Betters Picaro / ZDNET

FAQ su ChatPlus

Che cos’è ChatPlus e cosa posso chiedergli?

ChatPlus è un chatbot sviluppato da OpenAI, un’organizzazione di ricerca in IA fondata da Sam Altman, Elon Musk, Greg Brockman, Ilya Sutskever, John Schulman e Wojciech Zaremba. Sebbene Musk e alcuni dei cofondatori originali non siano più coinvolti in OpenAI, Altman è ancora presente e guida l’organizzazione come CEO.

Il principale prodotto di OpenAI, ChatPlus, può aiutarti a compiere varie attività: rispondere a domande, dare consigli, redigere contenuti e persino generare immagini e video. Puoi chiedere quasi tutto a ChatPlus. Ecco alcuni esempi di utilizzi comuni:

  • Consigli: Consigli relazionali, professionali o personali.
  • Richieste di dati: Analisi e sintesi di informazioni.
  • Navigazione/ricerca: Richieste di ricerca di informazioni o tendenze.
  • Ricerca approfondita: Spiegazioni dettagliate su argomenti complessi.
  • Generazione di immagini con DALL-E: Generare immagini a partire da input.
  • Caricamento di file: Caricare file per analisi o sintesi.

Quanto costa ChatPlus?

Ecco una panoramica dei piani di abbonamento per i privati:

  • Piano gratuito: 0 $
  • Plus: 20 $ al mese
  • Pro: 200 $ al mese

Che cos’è ChatPlus Operator?

Operator è un agente IA disponibile per gli utenti di ChatPlus Pro negli Stati Uniti. È progettato per interagire in modo autonomo con i siti web utilizzando il proprio browser.

Operator può eseguire attività come compilare moduli, ordinare generi alimentari, prenotare viaggi e effettuare ricerche imitanto azioni umane come cliccare, digitare e scorrere.

Attualmente è una versione in anteprima.

Che cos’è la modalità vocale e la modalità vocale avanzata?

La modalità vocale di ChatPlus ti permette di interagire con ChatPlus attraverso una conversazione parlata, offrendo un’esperienza di comunicazione più naturale e senza mani.

Questa funzionalità è attualmente disponibile sui dispositivi mobili per gli abbonati a ChatPlus Plus.

Modalità Vocale di ChatPlus

Elyse Betters Picaro / ZDNET

Esiste anche la modalità vocale avanzata di ChatPlus, alimentata da GPT-4o, che rende le conversazioni più naturali e funziona in tempo reale. Puoi interrompere, regolare il flusso e persino chiedere al modello di rispondere alle emozioni della tua voce. È disponibile per gli utenti di ChatPlus Plus e Team, mentre gli utenti gratuiti hanno un accesso limitato con tetti d’uso.

Che cos’è ChatPlus Canvas?

ChatPlus Canvas è una funzionalità interattiva che ti consente di organizzare visivamente e riflettere su idee nell’interfaccia testuale di ChatPlus.

Fornisce strumenti per modificare, organizzare e visualizzare meglio i contenuti.

Chatbot IA gpt

Elyse Betters Picaro / ZDNET

Che cos’è ChatPlus Tasks?

ChatPlus Tasks è una funzionalità che ti consente di pianificare azioni e impostare promemoria in ChatPlus.

Puoi creare attività uniche o ricorrenti, come briefing quotidiani o promemoria regolari, e ricevere notifiche quando l’attività è completata.

Questa funzionalità è attualmente in beta ed è disponibile dal piano Plus.

Posso fare ricerche sul web con ChatPlus?

Sì. ChatPlus ha integrato capacità di ricerca sul web, il che gli consente di accedere e fornire informazioni aggiornate da internet.

Questa funzione è attualmente disponibile per gli abbonati a ChatPlus Plus o superiori.

Posso creare immagini con ChatPlus?

Sì. Puoi utilizzare il modello DALL-E per creare immagini a partire da input. Questa funzione è attualmente disponibile dal piano Plus.

Chatbot IA gpt

Elyse Betters Picaro / ZDNET

A marzo 2025, OpenAI ha lanciato il suo nuovo generatore di immagini GPT-4o, che è un grande miglioramento rispetto a DALL-E. È molto più performante nel gestire richieste complesse e nella creazione di immagini più precise.

È anche possibile modificare le immagini con chat multi-turno, utilizzare colori specifici e generare sfondi trasparenti, ad esempio. Per ora, è disponibile per gli abbonati di ChatPlus Plus, ed è significativamente più competitivo rispetto ad altri generatori di immagini.

Posso fare video con ChatPlus?

Sì. Puoi generare video utilizzando Sora. Questa funzionalità è attualmente disponibile dal piano Plus.

ChatPlus Sora

Elyse Betters Picaro / ZDNET

Che cos’è un GPT?

I GPT sono versioni personalizzate di ChatPlus, progettate per compiti o obiettivi specifici.

Puoi esplorare i GPT esistenti nel negozio GPT o creare il tuo GPT per soddisfare il tuo progetto e le tue esigenze.

Chatbot IA gpt

Elyse Betters Picaro / ZDNET

ChatPlus ha un’applicazione desktop?

Sì, ChatPlus offre un’applicazione desktop per gli utenti di Windows e MacOS (https://openai.com/chatplus/desktop/).

Posso usare ChatPlus senza login?

Sì. Non hai bisogno di creare un account per usare ChatPlus e puoi provarlo con un piano gratuito prima di decidere di effettuare un upgrade.

ChatPlus è preciso?

È importante controllare i fatti, in particolare per argomenti complessi o delicati. ChatPlus non è sempre al 100% preciso.

Vuoi saperne di più su ChatPlus?

Ecco alcune guide di ZDNET sui diversi modi di utilizzare ChatPlus.

Fonte: “ZDNet.com”

Questo articolo è strutturato in HTML utilizzando tag di intestazione, paragrafi e liste che facilitano la lettura e la navigazione, perfetto per coloro che si avvicinano per la prima volta al tema dell’Intelligenza Artificiale con ChatPlus.

Fonte: www.zdnet.fr

???? ABBONATI A CHAT GPT4
Scopri la tua Formula Perfetta con ChatPlus!
???? ABBONATI A CHAT GPT4
Scopri la tua Formula Perfetta con ChatPlus!