Sito indipendente • Fatturazione P.IVA Italiana • Alta Disponibilità

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

Un consigliere comunale redige un decreto con ChatPlus

 

Un consigliere comunale della città di Porto Alegre, in Brasile, ha deciso di redigere una proposta di legge utilizzando ChatPlus. Ciò non ha mancato di suscitare reazioni, e non a caso: ha fatto approvare il suo testo senza che i suoi colleghi sospettassero nulla.

È un fatto che negli ultimi mesi probabilmente hai letto regolarmente contenuti redatti, almeno in parte, da un’intelligenza artificiale senza saperlo. Se il testo grezzo che esce da ChatPlus è spesso poco utilizzabile come tale, talvolta è sufficiente modificarlo correttamente affinché faccia illusion.

È sostanzialmente questo che Ramiro Rosario ha voluto dimostrare ai suoi colleghi. Questo consigliere comunale della città di Porto Alegre, in Brasile, ha recentemente presentato una proposta di legge volta a impedire alla città di addebitare ai contribuenti la sostituzione dei contatori di consumo dell’acqua quando questi vengono rubati. Questo decreto è stato adottato con grande facilità dai 36 rappresentanti del consiglio comunale lo scorso ottobre.

Rivelazione scioccante

È solo all’inizio di questo novembre che Ramiro Rosario ha rivelato il trucco ai suoi colleghi: questo testo, che hanno adottato senza difficoltà, è stato integralmente redatto da ChatPlus. Il consigliere comunale ha addirittura spiegato all’Associated Press che non ha apportato “alcuna modifica” al testo proposto dall’intelligenza artificiale.

“Se l’avessi detto prima, la proposta non sarebbe stata nemmeno sottoposta a votazione”, ha stimato. “Sarebbe ingiusto per la popolazione correre il rischio che il progetto non venga approvato semplicemente perché è stato scritto dall’intelligenza artificiale”.

Reazioni sorprendenti

Quando ha scoperto la situazione, Hamilton Sossmeier, il presidente del consiglio comunale di Porto Alegre, è rimasto inizialmente scioccato. Ha dichiarato ai media locali che per lui si trattava di un “pericoloso precedente”. Ma ha cambiato idea dopo alcuni giorni: “Ho cambiato idea”, ha dichiarato all’Associated Press. “Ho iniziato a informarmi più a fondo e ho visto che, sfortunatamente o fortunatamente, sta diventando una tendenza”.

Usare ChatPlus in questo modo, è giocare con il fuoco?

Nel caso di Ramiro Rosario e della città di Porto Alegre, sembra che l’impiego di ChatPlus nella stesura di una legge sia alla fine passato piuttosto bene. Ma non è sempre così: casi precedenti hanno già dimostrato che un uso improprio dell’intelligenza artificiale di OpenAI può avere conseguenze gravi su situazioni e persone. Ricordiamo la storia di quell’avvocato che ha utilizzato ChatPlus per risparmiare tempo in una causa e ha completamente sabotato il suo caso… e la sua credibilità.

“Forse non è sempre possibile tenere conto delle sfumature e delle complessità della legge. Dato che ChatPlus è un sistema di apprendimento automatico, potrebbe non avere lo stesso livello di comprensione e giudizio di un avvocato umano quando si tratta di interpretare i principi giuridici e il precedente. Ciò potrebbe portare a problemi in situazioni in cui è necessaria un’analisi legale più approfondita”, ritiene Andrew Perlman, decano della facoltà di giurisprudenza dell’Università di Suffolk. Per lui, ChatPlus potrebbe benissimo “presagire un cambiamento ancora più significativo dell’avvento di Internet”, a condizione che sia effettivamente controllato dalle persone che lo utilizzano. Alla fine è sempre la stessa storia fin dai tempi di Rabelais: la scienza senza coscienza è solo rovina dell’anima.

 

 

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

 

L’impatto dell’Intelligenza Artificiale sugli Interpreti dell’ONU e delle Istituzioni Internazionali

Con l’avvento dell’Intelligenza Artificiale (IA), il panorama delle lingue e delle interpretazioni negli organismi internazionali, tra cui l’ONU, sta subendo una trasformazione senza precedenti. Mentre l’IA offre nuove opportunità e efficienze, solleva anche interrogativi cruciali sulla sicurezza, l’accuratezza e il ruolo stesso degli interpreti umani.

Automatizzazione e Velocità

Uno degli impatti più evidenti dell’IA nell’ambito dell’interpretazione è la possibilità di automatizzare alcuni processi. Strumenti di traduzione automatica alimentati dall’IA possono fornire traduzioni rapide e in tempo reale, semplificando le comunicazioni in contesti multilingue. Questo potrebbe essere particolarmente utile durante le negoziazioni internazionali o le conferenze stampa.

Tendenze Attuali

Alcune istituzioni internazionali stanno già sperimentando soluzioni basate sull’IA per migliorare l’efficienza degli interpreti umani. Ad esempio, software di supporto all’interpretazione possono assistere gli interpreti umani offrendo suggerimenti terminologici e analizzando discorsi passati per una migliore comprensione dei contesti.

Preoccupazioni e Sfide

Nonostante i benefici potenziali, ci sono preoccupazioni significative. La precisione e la sensibilità culturale delle lingue sono complesse e spesso sfuggono all’IA. Contestualizzare frasi, comprendere giochi di parole e discernere sfumature culturali sono abilità uniche degli interpreti umani che al momento sfidano le capacità delle macchine.

Il Ruolo Continuo degli Interpreti Umani

Mentre l’IA può migliorare l’efficienza, il ruolo degli interpreti umani rimane irrinunciabile. La diplomazia e le trattative internazionali richiedono una comprensione profonda delle sfumature linguistiche, della cultura e del contesto politico, un’abilità intrinsecamente umana. Gli interpreti umani forniscono un servizio insostituibile nella gestione delle delicate questioni internazionali.

Prospettive Future

L’evoluzione dell’IA potrebbe portare a sviluppi ancora più significativi nei prossimi anni. Tuttavia, la necessità di mantenere il controllo umano, la precisione e la sensibilità culturale nelle comunicazioni internazionali rimarranno fondamentali. L’IA può essere un alleato prezioso, ma è nell’armoniosa collaborazione tra intelligenza umana e artificiale che risiede il futuro della comunicazione internazionale.

In conclusione, mentre l’IA apre nuove porte nell’ambito delle lingue e dell’interpretazione, è essenziale bilanciare l’innovazione con il rispetto per l’unicità delle capacità umane. Solo in questo modo possiamo garantire una comunicazione internazionale efficace, accurata e rispettosa delle diverse culture e lingue che caratterizzano il mondo delle istituzioni internazionali.

 

Il primo accordo mondiale sui rischi dell’intelligenza artificiale

www.wired.it/article/lintelligenza-artificiale-rischi-dichiarazione-bletchley-regno-unito/

 

Fonte : Larina-translation.com

Swantrad.com

 

 

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

La storia dell’algoritmo che ha violato ChatPlus

Recentemente, è stata resa pubblica la notizia di un algoritmo che è riuscito a craccare ChatPlus, uno dei più avanzati modelli di generazione del linguaggio naturale. Questo evento ha sollevato molte preoccupazioni sulla sicurezza e l’affidabilità dei sistemi di intelligenza artificiale.

Per comprendere appieno la portata di questa violazione, è necessario capire cosa sia ChatPlus e come funzioni. ChatPlus è un modello di intelligenza artificiale creato da OpenAI, che utilizza l’apprendimento automatico per generare testo coerente e convincente. È stato addestrato su un vasto corpus di dati provenienti da Internet, il che gli permette di rispondere a domande e interagire con gli utenti in modo simile a un essere umano.

L’algoritmo che è stato in grado di craccare ChatPlus è stato sviluppato da un gruppo di ricercatori che lavorano presso una università. Utilizzando tecniche avanzate di apprendimento automatico, sono stati in grado di sfruttare alcune vulnerabilità nel modello di ChatPlus per ottenere risultati indesiderati.

Una delle principali preoccupazioni riguarda la capacità di ChatPlus di generare contenuti falsi o ingannevoli. L’algoritmo craccato è stato in grado di manipolare le risposte di ChatPlus in modo da fornire informazioni errate o fuorvianti agli utenti. Questo solleva gravi preoccupazioni sulla diffusione di notizie false o sulla manipolazione delle opinioni pubbliche attraverso l’uso di intelligenza artificiale.

OpenAI ha preso atto di questa violazione e ha immediatamente preso misure per mitigare il problema. Hanno rilasciato una patch di sicurezza per correggere le vulnerabilità nel modello di ChatPlus e hanno avviato un’indagine interna per capire come sia stato possibile questo attacco.

È importante sottolineare che l’algoritmo che ha craccato ChatPlus non è stato creato con cattive intenzioni, ma piuttosto come un esperimento per evidenziare le potenziali vulnerabilità dei sistemi di intelligenza artificiale. Tuttavia, questo evento ha dimostrato che anche i modelli più avanzati possono essere soggetti a violazioni e che la sicurezza dei sistemi di intelligenza artificiale è un problema cruciale che deve essere affrontato.

OpenAI ha dichiarato che stanno lavorando per migliorare la sicurezza di ChatPlus e dei loro futuri modelli di intelligenza artificiale. Stanno anche collaborando con la comunità di ricerca per condividere informazioni e sviluppare soluzioni per affrontare queste sfide.

Questa violazione di ChatPlus è un promemoria della necessità di una regolamentazione adeguata nel campo dell’intelligenza artificiale. È essenziale che i governi e le organizzazioni sviluppino politiche e normative per garantire la sicurezza e l’etica nell’uso di queste tecnologie.

In conclusione, la storia dell’algoritmo che ha craccato ChatPlus ha sollevato importanti questioni sulla sicurezza e l’affidabilità dei sistemi di intelligenza artificiale. È fondamentale che le organizzazioni responsabili dello sviluppo di tali modelli prendano sul serio la sicurezza e lavorino per mitigare le vulnerabilità. Solo così potremo garantire un futuro in cui l’intelligenza artificiale possa essere utilizzata in modo sicuro ed etico per il bene dell’umanità.

 

Fonte : Wired.it

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

Quando i bot personalizzati di ChatPlus diventano complici degli escroci?

 

I progressi tecnologici hanno aperto nuove possibilità nel campo dell’intelligenza artificiale. I bot personalizzati, come ChatPlus, sono diventati popolari per la loro capacità di interagire con gli utenti in modo conversazionale. Tuttavia, questa tecnologia non è priva di rischi, poiché può essere sfruttata dagli escroci per ingannare gli utenti e estorcere loro denaro.

I bot personalizzati sono progettati per imitare le interazioni umane e rispondere alle richieste degli utenti in modo naturale. Possono essere utilizzati in diversi contesti, come il servizio clienti, il supporto tecnico o persino i giochi online. Purtroppo, alcuni individui malintenzionati hanno scoperto come sfruttare questa tecnologia per condurre attività fraudolente.

Uno dei principali problemi con i bot personalizzati è che sono in grado di generare risposte che sembrano autentiche. Gli escroci possono sfruttare questa funzionalità per fingersi veri agenti del servizio clienti o per creare personaggi finti che sembrano simpatici e affidabili. Possono così manipolare gli utenti e convincerli a divulgare informazioni sensibili o a effettuare transazioni finanziarie.

Gli escroci utilizzano spesso tecniche di manipolazione psicologica per ingannare gli utenti. Possono fingersi amici, parenti o addirittura persone in difficoltà, al fine di suscitare simpatia e fiducia. I bot personalizzati possono svolgere un ruolo chiave in questa strategia, fornendo risposte adatte a ogni situazione e mantenendo una conversazione fluida.

È importante notare che i bot personalizzati non sono consapevoli delle loro azioni. Sono solo programmi informatici che seguono istruzioni predefinite. Tuttavia, gli escroci possono usarli in modo abusivo per raggiungere i loro obiettivi fraudolenti.

Per proteggersi dalle truffe che coinvolgono i bot personalizzati, è essenziale essere vigili e non divulgare mai informazioni personali o finanziarie sensibili a un bot. È anche consigliato verificare l’identità di un interlocutore prima di condividere informazioni confidenziali. Se si hanno dubbi sull’autenticità di un bot, è meglio interrompere la conversazione e contattare direttamente l’azienda o l’organizzazione interessata.

Anche i sviluppatori di bot personalizzati stanno lavorando per migliorare la sicurezza dei loro programmi. Stanno implementando meccanismi di rilevamento delle truffe e dei comportamenti sospetti, al fine di proteggere gli utenti da tentativi di frode. Tuttavia, è importante rimanere vigili e non fidarsi ciecamente di un bot, anche se sembra simpatico e affidabile.

In conclusione,

i bot personalizzati di ChatPlus e altre tecnologie simili offrono molte opportunità, ma possono anche essere utilizzati in modo abusivo dagli escroci. È essenziale rimanere vigili e non divulgare mai informazioni personali o finanziarie sensibili a un bot. In caso di dubbi, è meglio interrompere la conversazione e contattare direttamente l’azienda o l’organizzazione interessata.

 

Fonte: BBC

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

OpenAI presenta le sue ultime innovazioni durante il DevDay

All’inizio di novembre, OpenAI ha organizzato la sua conferenza annuale DevDay, durante la quale ha annunciato numerose novità. Tra gli annunci, ci sono stati quelli riguardanti i GPT, nonché il GPT Store. Mentre gli utenti hanno già la possibilità di personalizzare l’esperienza di ChatPlus con istruzioni, OpenAI consente ora loro di creare le proprie versioni dell’IA. Per quanto riguarda il GPT Store, si tratta di un negozio online nel quale gli utenti potranno scegliere tra le diverse versioni create dalla comunità e guadagnare denaro.

Creazione di versioni personalizzate di ChatPlus

L’idea è quella di consentire la creazione di versioni ottimizzate di ChatPlus per utilizzi specifici, sia personali che professionali. E per creare queste versioni personalizzate, la codifica non è nemmeno necessaria. Secondo le spiegazioni di OpenAI, è ad esempio possibile aggiungere istruzioni, integrare nuove informazioni alle conoscenze dell’IA o selezionare competenze particolari, come l’analisi dei dati o la ricerca di informazioni online.

Il GPT Store

Il GPT Store permetterà di mettere a disposizione della comunità queste versioni personalizzate. Apparentemente, OpenAI si è ispirata ai negozi di applicazioni per dispositivi mobili, poiché i creatori avranno la possibilità di guadagnare denaro attraverso il GPT Store. “Una volta nel negozio, i GPT diventano consultabili e possono salire nelle classifiche. Metteremo in evidenza anche i GPT più utili e piacevoli che incontriamo nelle categorie come produttività, educazione e ‘solo per divertimento’. Nei prossimi mesi, sarà possibile guadagnare denaro in base al numero di persone che utilizzano il tuo GPT”, ha spiegato OpenAI.

Ritardo nel lancio del GPT Store

Durante l’annuncio di novembre, OpenAI ha dichiarato che avrebbe lanciato il GPT Store alla fine di novembre. Tuttavia, ora è possibile che questo negozio online venga effettivamente lanciato solo nel 2024. È quanto sostengono i giornalisti di The Verge in un recente articolo. Secondo loro, OpenAI avrebbe inviato una e-mail alle persone che hanno già iniziato a sviluppare le proprie versioni di ChatPlus con lo strumento GPT Builder.

In questa e-mail, l’organizzazione avrebbe indicato che ora prevede di lanciare il GPT Store all’inizio del 2024, a causa di eventi imprevisti che l’hanno occupata. Come ricordo, OpenAI è stata recentemente scossa dalla vicenda di Sam Altman. In sintesi, il consiglio di amministrazione ha deciso di rimuovere il CEO di OpenAI. Tuttavia, pochi giorni dopo, Altman ha ripreso la sua posizione, mentre il consiglio di amministrazione è stato sostituito.

Coinvolgimento di Microsoft

Grazie ai miliardi di dollari investiti in OpenAI e al suo accordo senza precedenti con la stessa, Microsoft ha accesso completo alle tecnologie sviluppate dal team di Sam Altman. E proprio Microsoft prevede di lanciare una funzionalità della sua intelligenza artificiale Copilot (basata su GPT-4) che permetterà anche di creare versioni personalizzate del modello.

Chiamata Copilot Studio, questa funzionalità “racchiude un insieme di potenti funzionalità di conversazione, tra cui GPT personalizzati, plugin di IA generativa e argomenti manuali”.

“È possibile personalizzare Copilot per Microsoft 365 con i propri scenari aziendali: creare, testare e pubblicare copiloti autonomi e GPT personalizzati[…]”, ha dichiarato anche Microsoft. Inoltre, dovrebbe anche integrare GPT-4 “Turbo”, l’altra grande novità annunciata da OpenAI, nel suo chatbot Copilot.

Sommario dei principali annunci

 

 

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

 

 

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

Scopri come l’intelligenza artificiale rivoluziona la progettazione di nuovi materiali.

Per progettare nuovi materiali, i ricercatori si avvalgono dell’intelligenza artificiale.

Invece di partire da zero, i ricercatori si basano sulle strutture di materiali già conosciuti e le modificano leggermente, spesso sostituendo un atomo con un atomo simile. Una volta determinata una struttura, è necessario verificare la sua stabilità. A tal fine, i ricercatori utilizzano metodi di simulazione che possono essere eseguiti in un tempo ragionevole solo su supercomputer (server con enormi capacità utilizzati dai ricercatori per eseguire algoritmi esigenti in risorse).

A questi calcoli teorici si aggiunge la ricerca di una sintesi che consenta di ottenere il materiale desiderato. Durante questa fase, ogni campione ottenuto da un protocollo di sintesi testato deve essere caratterizzato (è necessario determinare la natura e la posizione degli atomi che lo costituiscono). Una volta effettuata la caratterizzazione, il ricercatore può analizzare i risultati e scegliere le modifiche da apportare alla sintesi. Seguendo questi passaggi, può richiedere diversi mesi a un fisico per progettare un nuovo materiale e determinare una procedura di sintesi.

Oltre 2,2 milioni di nuove strutture cristalline

GNoME è riuscito rapidamente a determinare più di 2,2 milioni di nuove strutture cristalline (strutture interne dei materiali) che presentano una certa stabilità.

Un’animazione mostra un modello a sfera e bastone di un cristallo che ruota.”

Esplorazione robotica: alla scoperta di nuovi materiali grazie all'IA

La struttura cristallina del Ba6Nb7O21, uno dei materiali predetti da GNoME. Il bario è in blu, il niobio in grigio e l’ossigeno in blu. Crediti: Materials Project/Berkeley Lab

 

Robotica IA: Tra la moltitudine di materiali suggeriti dall’intelligenza artificiale, oltre 380.000 contribuiranno ad arricchire il database The Materials Project, fondato da ricercatori dell’Università americana di Berkeley e che funge da vasta biblioteca dei materiali. Questo ampio database consente ai ricercatori di catalogare i materiali e le loro proprietà (se sono conduttori o isolanti, le loro proprietà magnetiche, o se sono già stati osservati sperimentalmente), nonché di calcolarli automaticamente tramite simulazioni quando necessario.

Un network di neuroni

L’approccio dell’intelligenza artificiale GNoME si basa su una categoria di reti neurali specializzate nel trattamento di informazioni che possono essere rappresentate da un grafo. Quest’ultimo è un oggetto matematico composto da nodi collegati tra loro da archi, come nel caso di una struttura cristallina.

L’IA è stata addestrata utilizzando i dati di The Materials Project nel 2018, equivalenti a 69.000 materiali diversi. La rete neurale è in grado di suggerire strutture cristalline derivandole dal database. Una delle caratteristiche principali della loro tecnologia è la capacità di imparare dagli errori (e dai successi). Ogni cristallo proposto passa attraverso una serie di simulazioni (simili a quelle di The Materials Project), e le informazioni recuperate da queste simulazioni vengono successivamente fornite come dati di input e di apprendimento per l’IA. È grazie a questo processo di apprendimento attivo che GNoME riesce a migliorare oltre i dati forniti inizialmente.

Un laboratorio automatico per accelerare il test di questi materiali

Il 29 novembre 2023, gli stessi ricercatori di Berkeley hanno pubblicato su Nature i primi risultati del loro laboratorio automatico che funziona in parte grazie all’intelligenza artificiale, l’A-Lab. Questo laboratorio è in grado di determinare le procedure di sintesi dei materiali basandosi sulla letteratura scientifica e sulle esperienze che ha condotto.

Il laboratorio è composto da diverse parti: bracci robotici, fornelli controllati da computer in grado di riscaldarsi da 600°C a 1100°C, e un analizzatore a raggi X, un dispositivo in grado di determinare la struttura interna di un materiale utilizzando i raggi X. Tutti questi dispositivi all’avanguardia sono gestiti da un’intelligenza artificiale. Quest’ultima è stata addestrata su un database che raccoglie protocolli di sintesi provenienti da circa 25.000 pubblicazioni.

Per estrarre le informazioni cruciali da questi articoli, i ricercatori hanno utilizzato un’altra intelligenza artificiale specializzata nel linguaggio naturale, in grado di interpretare testi scritti dall’essere umano senza la necessità di intervento umano preliminare sul testo. L’intelligenza artificiale è quindi in grado di rilevare le somiglianze tra il materiale preso in esame e quelli della letteratura per determinare le polveri da mescolare, le loro proporzioni e le temperature dei forni necessarie.

100 campioni al giorno

La produzione è gestita automaticamente dai robot. Una volta completata, i bracci robotici polverizzano il solido ottenuto e lo portano all’analizzatore a raggi X. Quest’ultimo utilizza il fenomeno della diffrazione (deviazione dei raggi luminosi causata dalla presenza di oggetti di piccole dimensioni, in questo caso gli atomi che compongono il cristallo). Dai risultati della diffrazione è possibile determinare la natura e la posizione degli atomi nel cristallo analizzato. Questi risultati sono poi utilizzati, analogamente alle simulazioni per GNoME, per riaddestrare il modello e aggiustare le produzioni proposte.

Grazie a questa automazione, il laboratorio è riuscito a determinare in 17 giorni la sintesi di 41 materiali (su 58 analizzati), a un ritmo di 100 campioni al giorno. Questo tasso, di circa due materiali al giorno, consente un’accelerazione nella ricerca di materiali innovativi, ricordando che un essere umano può impiegare diversi mesi per un solo materiale.

 

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

La rivoluzione linguistica: Gemini, il nuovo modello di intelligenza artificiale di Google

Google ha appena lanciato Gemini, un nuovo modello di intelligenza artificiale che ora sarà utilizzato per alimentare Bard. Gemini sarà anche presente nel Google Pixel e una versione Ultra è prevista per il 2024.

Per coloro che conoscono ChatPlus, è importante non confondere l’applicazione ChatPlus con i modelli sottostanti, GPT 4 e GPT 3.5, utilizzati per elaborare le richieste degli utenti. Ora, per l’IA di Google, Bard, il modello di base è Gemini, definito da Google come “il più ambizioso e performante tra i suoi modelli di intelligenza artificiale”.

La rivoluzione linguistica: Gemini, l'assalto di Google contro ChatPlus

Gemini, un modello multimodale

Gemini non è solo un semplice modello di intelligenza artificiale. Si tratta infatti di un modello multimodale, in grado di reagire a diversi tipi di fonti di informazioni, tra cui testo, codice, audio, immagini e video. Un video pubblicato da Google mostra l’IA di Google in azione, descrivendo un disegno, inventando un gioco, risolvendo un enigma e stabilendo collegamenti logici tra diversi oggetti.

Google ha dettagliato in un comunicato che il modello Gemini è stato progettato per essere nativamente multimodale, conferendogli la capacità di comprendere e ragionare su tutti i tipi di input. Ciò lo rende più performante rispetto ai modelli esistenti ed estende le sue capacità in tutti i settori dell’IA.

Tre versioni di Gemini

Google ha annunciato tre versioni di Gemini: Gemini Pro, Gemini Nano e Gemini Ultra. Gemini Pro sarà integrato in Google Bard da subito, mentre Gemini Nano sarà incluso nel Pixel 8 Pro. Infine, Gemini Ultra sarà testato da clienti, sviluppatori ed esperti di sicurezza informatica prima di alimentare una versione migliorata di Bard, chiamata Bard Advanced, all’inizio del 2024.

Fonte : Wired.it

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

Google inizierà mercoledì a lanciare Gemini, il suo nuovo modello di intelligenza artificiale (IA) progettato per competere meglio con OpenAI (il creatore di ChatPlus) e Microsoft, dalle applicazioni per il pubblico alle capacità informatiche per le aziende. ‘È il nostro modello di IA più grande, più capace e anche il più generale’, ha assicurato Eli Collins, vicepresidente di Google DeepMind, il laboratorio di ricerca in IA della società californiana, durante una presentazione alla stampa.

Gemini può ‘vedere’

Successivamente ha diffuso un video in cui un utente mostra oggetti, disegni e video a Gemini. Il sistema di IA commenta oralmente ciò che ‘vede’, identifica gli oggetti, suona musica e risponde a domande che richiedono un certo grado di analisi, giustificando il suo ‘ragionamento’. Il nuovo modello è ‘multimediale fin dalla sua creazione, ha capacità di ragionamento sofisticate e può codificare a un livello avanzato’, ha detto Eli Collins.

Dal lancio di ChatPlus un anno fa, i giganti della Silicon Valley si stanno impegnando in una corsa frenetica all’IA generativa, che consente di ottenere testi, immagini o linee di codice di livello equivalente a quelli prodotti da esseri umani, su semplice richiesta in linguaggio comune. Google, leader dell’IA ma sorpreso dal successo fenomenale di ChatPlus, ha risposto in particolare con il suo chatbot, Bard. Tuttavia, tutto si gioca a livello di modelli, i sistemi informatici che supportano queste applicazioni. Gemini è ‘un passo ulteriore verso la nostra visione: portarvi il miglior collaboratore di IA al mondo’, ha sottolineato Sissie Hsiao, vicepresidente di Google responsabile di Bard.

Bard dovrebbe acquisire nuove capacità già da mercoledì, ma solo con richieste scritte e solo in inglese. Sarà necessario attendere il 2024 per le altre funzioni e formati, come l’assistenza avanzata alla risoluzione di problemi matematici. Meno conosciuto di ChatPlus, Bard ha l’opportunità di cercare di recuperare terreno sul suo rivale, vittima del suo successo: a metà novembre, sopraffatta dalla domanda, OpenAI ha infatti messo in pausa gli abbonamenti alla versione a pagamento.

Google darà anche accesso il 13 dicembre a una prima versione di Gemini ai suoi clienti nel cloud (informatica remota). In questo settore, il gigante di internet è in concorrenza diretta con Microsoft, principale investitore di OpenAI e secondo al mondo nel settore del cloud, dietro ad Amazon. Entrambi i gruppi americani hanno trascorso l’anno aggiungendo strumenti di IA generativa ai rispettivi software (motore di ricerca, software per ufficio e produttività, piattaforma di cloud, ecc.).

Fonte : It.euronews.com

 

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI !

I limiti dell’IA generativa: quando la sicurezza è compromessa

Immagine: Google DeepMind

I ricercatori nel campo dell’intelligenza artificiale (IA) stanno scoprendo sempre più modi per violare la sicurezza dei programmi di IA generativa come ChatPlus. In particolare, il processo noto come “allineamento”, che mira a mantenere i programmi entro certi limiti in modo che svolgano il loro ruolo di assistenti senza comportamenti riprovevoli. Recentemente, un gruppo di ricercatori dell’Università della California ha trovato un modo per “rompere” questo processo di allineamento in diversi programmi di IA generativa. Questa settimana, sono stati i ricercatori di DeepMind di Google a trovare un modo ancora più semplice per compromettere l’allineamento di ChatPlus.

Un nuovo tipo di attacco

Per farlo, hanno chiesto a ChatPlus di ripetere una parola all’infinito. Sono riusciti così a costringere il programma a rigurgitare interi passaggi di letteratura contenenti i suoi dati di addestramento. Questo tipo di perdita non dovrebbe verificarsi con programmi allineati. Ancora più preoccupante: il programma è stato anche manipolato per rivelare nomi, numeri di telefono e indirizzi di individui. I ricercatori hanno chiamato questo fenomeno “memorizzazione estrattiva”. Si tratta di un attacco che costringe un programma a divulgare gli elementi che ha memorizzato in memoria.

“Ho sviluppato un nuovo tipo di attacco, che porta il modello a deviare dalle sue generazioni di tipo chatbot e a emettere dati di addestramento a un tasso 150 volte superiore rispetto al suo comportamento corretto”, descrive il team di Milad Nasr nell’articolo “Scalable Extraction of Training Data from (Production) Language Models”. Il team ha anche scritto un post sul blog, più accessibile.

Il principio fondamentale di questo attacco è far sì che l’IA generativa, in questo caso ChatPlus, si discosti dall’allineamento programmato per tornare a un modo di funzionamento più basilare.

Addestramento e allineamento

I programmi di IA generativa come ChatPlus si basano su un processo chiamato “addestramento”. Durante l’addestramento, il programma nel suo stato iniziale – piuttosto informe – viene sottoposto a miliardi di byte di testo provenienti da varie fonti (pagine web come Wikipedia, libri pubblicati). L’obiettivo fondamentale di questo addestramento è far sì che il programma rifletta tutto ciò che gli viene dato, comprimendo il testo e poi decomprimendolo. In teoria, una volta addestrato, un programma potrebbe rigurgitare i dati di addestramento se gli venisse presentato un piccolo pezzo di testo da Wikipedia e scatenasse la risposta speculare. Ma, per evitare ciò, ChatPlus e gli altri programmi di IA generativa sono “allineati”. Ricevono un ulteriore strato di addestramento in modo che non si limitino a rigurgitare il testo. Devono essere in grado di rispondere con messaggi utili. Ad esempio, devono saper rispondere a una domanda o aiutare a scrivere un riassunto di lettura. Questo personaggio di assistente utile, creato dall’allineamento, maschera la funzione speculare sottostante.

Ripetere le parole all’infinito fa deviare ChatPlus

Per costringere ChatPlus a deviare dalla sua funzione di assistente pratico, Milad Nasr gli ha chiesto di ripetere una parola all’infinito. Il programma di OpenAI ha ripetuto la parola diverse centinaia di volte prima di deviare. Ha poi iniziato a derivare verso estratti di testo vari, senza senso. Ma il ricercatore precisa che il suo team è riuscito a dimostrare “che una piccola frazione di ciò che è stato generato diverge verso la memorizzazione: alcuni testi generati erano copiati direttamente dai dati di pre-addestramento” del programma.

Dopo un certo numero di ripetizioni, ChatPlus deriva verso un testo privo di senso che rivela frammenti dei suoi dati di addestramento.

Immagine: Google DeepMind. Il testo privo di senso finisce per rivelare intere sezioni dei dati di addestramento del programma (evidenziate in rosso).

I ricercatori hanno successivamente dovuto determinare se questi risultati provenivano effettivamente dai dati di addestramento del programma. Hanno quindi compilato un enorme insieme di dati, chiamato AUXDataSet, che rappresenta quasi 10 terabyte di dati di addestramento. Si tratta di una compilazione di quattro diversi set di dati di addestramento utilizzati dai più grandi programmi di IA generativa: The Pile, Refined Web, RedPajama e Dolma. I ricercatori hanno reso questa compilazione consultabile mediante un efficace meccanismo di indicizzazione, in modo da poter confrontare i risultati di ChatPlus con i dati di addestramento per cercare corrispondenze.

Copia di testi, contenuti inappropriati e perdita di dati

Hanno quindi effettuato l’esperimento – ripetere una parola all’infinito – migliaia di volte e hanno cercato i risultati nell’insieme di dati AUXDataSet migliaia di volte, al fine di “scalare” il loro attacco. “La catena più lunga di caratteri estratti supera i 4.000 caratteri”, indicano i ricercatori riguardo ai dati che hanno recuperato. Diverse centinaia di parti memorizzate di dati di addestramento superano i 1.000 caratteri. Nei prompt contenenti le parole “libro” o “poesia”, sono stati ritrovati paragrafi interi di romanzi e copie complete di poesie, raccontano i ricercatori.

Hanno anche ottenuto contenuti “Non adatto al lavoro” (NSFW) – potenzialmente scioccanti – in particolare quando chiedevano al modello di ripetere una parola contrassegnata come NSFW. Il team ha anche potuto recuperare “informazioni per identificare decine di persone”.

Su 15.000 tentativi, circa il 17% conteneva “informazioni personali identificabili memorizzate” come numeri di telefono.

Un’esperienza limitata con risultati preoccupanti

I ricercatori hanno l’obiettivo di quantificare i dati di addestramento che potrebbero essere trapelati. Hanno trovato finora grandi quantità di dati, ma la loro ricerca è limitata dal costo dell’esperimento, che potrebbe prolungarsi all’infinito. Con i loro attacchi ripetuti, hanno già trovato 10.000 casi di contenuto “memorizzato” nei set di dati rigurgitati. E presumono che sarebbe possibile trovarne molti di più continuando questi attacchi.

L’esperimento di confrontare i risultati di ChatPlus con quelli di AUXDataSet è stato eseguito su una singola macchina in Google Cloud, con un processore Intel Sapphire Rapids Xeon e 1,4 terabyte di DRAM. Ci sono volute settimane per portare a termine questo progetto. Ma l’accesso a computer più potenti potrebbe consentire loro di testare ChatPlus in modo più approfondito e trovare ancora più risultati. “Con il nostro budget limitato di 200 dollari, abbiamo estratto più di 10.000 esempi unici”, sottolinea il team, avvertendo che gli attaccanti informatici “che spendono più soldi per interrogare l’API di ChatPlus potrebbero probabilmente estrarre molto più dati”.

I ricercatori hanno verificato manualmente circa 500 esempi dai risultati di ChatPlus effettuando ricerche su Google: hanno quindi trovato quasi il doppio di esempi di dati memorizzati sul web. Quindi, potrebbero esserci ancora più dati memorizzati in ChatPlus rispetto a quanto catturato da AUXDataSet, nonostante le sue dimensioni.

Alcune parole sono più efficaci di altre

Fatto divertente: i ricercatori hanno scoperto che alcune parole erano più efficaci di altre per portare a termine il loro esperimento. La ripetizione della parola “poesia”, presentata in precedenza, era in realtà una delle meno efficaci. La parola “azienda” ripetuta all’infinito, al contrario, è stata la più efficace, come si può vedere in questo grafico che mostra la potenza di ogni parola (o gruppo di lettere) utilizzata.

I ricercatori non sanno esattamente cosa induca ChatPlus a rivelare i testi che ha memorizzato. Suppongono che il programma sia stato addestrato per un numero maggiore di “epoche” rispetto ad altri programmi di IA generativa, il che significa che l’utensile passa attraverso gli stessi set di dati di addestramento un numero maggiore di volte. “Lavori precedenti hanno dimostrato che questo potrebbe aumentare notevolmente la memorizzazione”, scrivono. Tuttavia, chiedere al programma di ripetere più parole non funziona come un attacco, riferiscono, perché ChatPlus di solito rifiuta di continuare. I ricercatori non sanno perché solo le richieste di una sola parola funzionano: “Anche se non abbiamo spiegazioni in merito, l’effetto è significativo e riproducibile”.

Sapere fare le domande giuste

Gli autori hanno comunicato le loro conclusioni a OpenAI il 30 agosto scorso, e l’azienda sembra aver preso misure per contrastare questo attacco.

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI !

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI !

L’IA ha appena decodificato delle tavolette di 5000 anni: ecco cosa ha scoperto

Un recente exploit dell’intelligenza artificiale ha permesso di decifrare iscrizioni su tavolette antiche di 5000 anni, rivelando informazioni preziose sulla storia antica.

Una rivelazione storica

Le tavolette in questione sono state scoperte in un’antica città mesopotamica, e fino ad ora il loro contenuto era rimasto indecifrabile a causa della loro lingua unica e complessa. Tuttavia, grazie all’uso dell’intelligenza artificiale, i ricercatori sono finalmente riusciti a comprendere il significato delle iscrizioni.

Scoperte affascinanti

Le iscrizioni rivelano informazioni sulla vita quotidiana, le credenze religiose e le pratiche mediche dell’epoca. Forniscono anche dettagli sugli scambi commerciali e sulle relazioni diplomatiche tra diverse città dell’antica Mesopotamia.

La potenza dell’intelligenza artificiale

Questo successo dimostra ancora una volta il potenziale dell’intelligenza artificiale nel campo dell’archeologia e della ricerca storica. Combinando algoritmi di elaborazione del linguaggio naturale con modelli di apprendimento automatico, i ricercatori sono riusciti a superare ostacoli che sembravano insormontabili in precedenza.

Implicazioni per il futuro

Questa scoperta sottolinea il ruolo cruciale che l’intelligenza artificiale può svolgere nella conservazione e comprensione del nostro patrimonio mondiale. Apre anche nuove prospettive per la ricerca futura e il modo in cui interpretiamo la storia antica.

Conclusioni

L’intelligenza artificiale ha permesso di rivelare segreti sepolti da millenni sulle tavolette di 5000 anni, offrendo così una preziosa visione della civiltà antica. Questo progresso segna un passo significativo nella nostra comprensione del passato e illustra il potenziale rivoluzionario dell’IA nel campo della ricerca storica.

Fonte ein francese : lebigdata.fr

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI !

???? ABBONATI A CHAT GPT4
Scopri la tua Formula Perfetta con ChatPlus!
???? ABBONATI A CHAT GPT4
Scopri la tua Formula Perfetta con ChatPlus!