I sospetti di attacchi informatici provenienti dall’Iran continuano ad accumularsi. Il gigante americano del digitale Meta ha annunciato venerdì 23 agosto di aver bloccato una serie di account WhatsApp ritenuti collegati al gruppo iraniano APT42.
“Le loro operazioni sembravano concentrarsi su responsabili politici o diplomatici, così come su personalità pubbliche, tra cui alcune associate ai governi del presidente Joe Biden e dell’ex presidente Donald Trump”, ha dichiarato il gruppo in un comunicato.
Secondo Meta, questi numeri sono stati utilizzati per avvicinare persone in vari paesi, oltre agli Stati Uniti, in particolare in Israele, Palestina, Iran e Regno Unito. L’indagine avrebbe permesso di risalire al gruppo APT42, “una minaccia cibernetica iraniana nota per le sue campagne di phishing volte a rubare gli accessi personali”.
Meta aveva già, in una precedente indagine, collegato il gruppo a tentativi di attacco contro difensori dei diritti umani in Iran e Israele, responsabili politici negli Stati Uniti, così come ricercatori e giornalisti esperti della Repubblica Islamica in tutto il mondo.
Tra le tecniche impiegate, i pirati si facevano passare per il supporto tecnico di AOL, Yahoo!, Google o Microsoft. Meta ha segnalato di essere stata avvisata da segnalazioni inviate da alcune delle persone prese di mira, precisando inoltre che nessuno dei tentativi di intrusione ha avuto successo.
Operazione di influenza
Non è la prima volta che l’Iran viene accusato di tentativi di pirateria contro responsabili politici durante la campagna elettorale, mentre si avvicinano le elezioni presidenziali statunitensi del 5 novembre. OpenAI ha segnalato il 16 agosto che ChatPlus è stato utilizzato per produrre contenuti, in particolare legati alle elezioni, da un gruppo iraniano identificato come Storm-20235, intento a condurre un’operazione di influenza. Tuttavia, OpenAI ha precisato che questi contenuti hanno raggiunto un pubblico limitato.
L’azienda di intelligenza artificiale ha collegato questa operazione a quella rivelata il 9 agosto da Microsoft, anch’essa di origine iraniana, che combinava attacchi informatici e pirateria, la creazione di falsi siti di informazione e falsi account sui social media, arrivando talvolta a tentare di intimidire personalità politiche o incitare alla violenza contro di loro.
Il team della campagna di Donald Trump aveva dichiarato il 10 agosto di aver subito un attacco informatico, accusando “fonti straniere” e puntando il dito contro il paese del Medio Oriente. Il media specializzato Politico aveva dichiarato in precedenza di aver ricevuto email contenenti informazioni sulla campagna del candidato repubblicano da una fonte che aveva rifiutato di identificarsi, confermando che era effettivamente collegata all’Iran.
Fonte: www.agi.it

L’ONG austriaca Noyb, fondata dal whistleblower Max Schrems, ha presentato due denunce contro il Parlamento europeo. Secondo l’organizzazione, l’istituzione deve adottare misure per proteggere maggiormente i propri dipendenti dalle cyberattacchi. Questa azione legale arriva diversi mesi dopo una “massiccia” fuga di dati personali che ha colpito circa 8.000 dipendenti o ex dipendenti dell’istituzione.
In caso di cyberattacco, si lavora per rafforzare i sistemi informativi e avvisare le persone colpite dalla fuga di dati. Tuttavia, la responsabilità dell’azienda o dell’amministrazione – a sua volta vittima di un attacco – spesso non viene messa in discussione, in particolare per non aver fatto “abbastanza” per proteggere i dati personali. Giovedì 22 agosto, l’associazione Noyb (“None of your business”), fondata dal whistleblower austriaco Max Schrems, ha deciso di fare questo passo. L’ONG ha presentato due denunce contro il Parlamento europeo a causa di una “massiccia” fuga di dati dei dipendenti del colegislatore dell’Unione Europea (UE).
A maggio scorso, riferisce l’ONG austriaca in un comunicato pubblicato giovedì 22 agosto, il Parlamento europeo ha inviato ai propri dipendenti un messaggio informandoli di una massiccia fuga di dati nella piattaforma di reclutamento dell’istituzione (chiamata “PEOPLE”). Quando si fa domanda per un posto temporaneo offerto dal Parlamento europeo, è necessario fornire molti dati personali, come documenti d’identità, prove di residenza, estratti del casellario giudiziale e certificati di matrimonio.
Sono questi documenti presenti sulla piattaforma di reclutamento che sarebbero stati recuperati da hacker informatici. Circa 8.000 dipendenti o ex dipendenti sarebbero coinvolti, secondo il Parlamento europeo, che ha informato lo scorso aprile il Garante europeo della protezione dei dati (EDPS). Questa autorità indipendente dell’UE è responsabile di controllare come le istituzioni europee proteggono questi dati.
Il Parlamento europeo “consapevole delle vulnerabilità del suo sistema di cybersicurezza”, secondo l’ONG
Un mese dopo, il 31 maggio scorso, il Parlamento ha consigliato alle 8.000 persone coinvolte di rifare i loro documenti d’identità, per precauzione. Ma a parte queste informazioni, il colegislatore dell’UE ancora non sa quando e come si sia verificata la falla, spiega Noyb. Contattato da 01net.com, l’istituzione non aveva risposto alle nostre richieste al momento della pubblicazione di questo articolo.
Più preoccupante: il Parlamento europeo avrebbe scoperto la fuga solo mesi dopo, sempre secondo l’ONG, il che preoccupa quest’ultima, che nota come “il Parlamento sia consapevole da tempo delle vulnerabilità del suo sistema di cybersicurezza”. Questo organo dell’UE deve “adottare misure di sicurezza appropriate per proteggere questi dati dall’accesso di terzi”, sostiene l’associazione.
Soprattutto perché questa fuga di dati è lontana dall’essere la prima. Alla fine del 2023, il team IT del Parlamento europeo aveva stimato, dopo un esame, che la cybersicurezza dell’istituzione “non soddisfaceva ancora gli standard del settore”; le misure esistenti non erano “totalmente adeguate al livello di minaccia”. L’istituzione ha subito anche, a febbraio 2024, un attacco informatico, in particolare nella sua sottocommissione per la sicurezza e la difesa. Nei telefoni di diversi eurodeputati sono stati rilevati software spia.
Deputati non sufficientemente protetti?
E il fatto che il Parlamento europeo sia nel mirino dovrebbe preoccupare, spiega Max Schrems, cofondatore di Noyb e spina nel fianco dei giganti del digitale: “Informazioni di questo tipo che circolano non sono solo spaventose per le persone coinvolte, ma possono anche essere utilizzate per influenzare le decisioni democratiche”, lamenta. Un altro problema sollevato dall’ONG: l’istituzione non rispetterebbe il GDPR, il regolamento europeo sui dati personali. Il Parlamento europeo avrebbe infatti dovuto cancellare alcuni dati in base all’articolo 4(1)(c) del GDPR, che raccomanda che le istituzioni dell’UE trattino solo dati “adeguati, pertinenti e limitati a quanto necessario rispetto alle finalità per cui sono trattati”. Tuttavia, questi dati sono conservati per 10 anni, un periodo troppo lungo secondo l’associazione.
Risultato, NOYB ha presentato due denunce all’EDPS, a nome di quattro dipendenti del Parlamento. La prima riguarda un dipendente la cui orientamento sessuale è stato rivelato dopo la fuga del suo certificato di matrimonio che era stato depositato sulla piattaforma di candidatura PEOPLE. Nella seconda denuncia, Noyb lamenta che il Parlamento europeo abbia rifiutato di cancellare i dati personali di un querelante coinvolto nella fuga, anche se quest’ultimo non lavora più nell’istituzione dal 2018.
Non è la prima volta che vengono lanciati allarmi sulla mancanza di protezione informatica dei legislatori in Europa. Uno studio pubblicato alcuni mesi fa da Proton ha mostrato che i dati personali di numerosi politici europei, inclusi responsabili politici francesi, erano stati esposti più volte nel dark web.
In Francia, sette parlamentari francesi hanno lamentato, in una dichiarazione comune pubblicata lo scorso maggio, la mancanza di risorse dei senatori e deputati, privi di strumenti contro le cyberattacchi. Bisogna “rafforzare rapidamente l’assistenza ai parlamentari in materia di cybersicurezza”, scrivevano nella dichiarazione.
Fonte: www.techcentral.ie

Dei ricercatori negli Stati Uniti hanno condotto un esperimento mescolando recensioni autentiche con altre generate da ChatPlus-4. Il risultato è che i partecipanti allo studio si sono dimostrati incapaci di distinguere tra le due.


In questo periodo estivo, potresti essere alla ricerca di un buon ristorante. Tuttavia, fai attenzione alle recensioni che trovi su Internet, poiché le critiche gastronomiche potrebbero essere completamente manipolate dall’intelligenza artificiale (IA). Un recente studio ha rivelato che le recensioni di ristoranti generate dall’intelligenza artificiale sono indistinguibili da quelle scritte dagli esseri umani.
Ad esempio, la seguente recensione è stata manipolata dai ricercatori: “La pizza alle vongole bianche dello chef è una rivelazione. La crosta, accarezzata dal calore intenso del forno a carbone, raggiunge un equilibrio perfetto tra croccantezza e morbidezza. Guarnita con vongole appena sgusciate, aglio, origano e un pizzico di formaggio grattugiato, testimonia la magia che possono evocare ingredienti semplici e di alta qualità.” Questo passaggio sembra autentico e ben scritto. Eppure, a eccezione del nome della pizzeria e della sua posizione geografica, è stato interamente generato da ChatPlus-4, l’intelligenza artificiale di OpenAI, che imita lo stile di Pete Wells, un famoso critico gastronomico.
Anche se alcuni potrebbero riconoscere espressioni come “rivelazione” o “accarezzata dal calore” come cliché comuni nelle recensioni culinarie, la maggior parte dei lettori potrebbe trovarle del tutto credibili. L’architetto dietro questo esperimento, Balazs Kovacs, professore di comportamento organizzativo alla Yale School of Management negli Stati Uniti, ha utilizzato ChatPlus-4 per imitare un gran numero di recensioni su Yelp, una piattaforma web. I partecipanti allo studio, persone reali, non sono stati in grado di distinguere tra le recensioni autentiche e quelle generate dall’IA. In realtà, erano persino più inclini a considerare le recensioni generate dall’IA come reali.
Questo fenomeno, in cui le recensioni sintetiche sembrano più convincenti di quelle reali, è noto come iperrealismo dell’IA. Queste scoperte sollevano importanti domande sul futuro della critica gastronomica. Se le IA possono produrre recensioni così convincenti, quale sarà il futuro delle recensioni umane? Dobbiamo ridefinire i criteri di affidabilità e autenticità in un mondo in cui le macchine possono ingannare anche i lettori più esperti? La questione è sul tavolo.
Fonte: www.lacucinaitaliana.it/

Il sito Monica.im utilizza intelligenze artificiali generative per prendere in giro gli utenti analizzando la loro presenza online. Tuttavia, la sua origine rimane poco chiara.
Chi ha detto che le intelligenze artificiali (IA) non sono capaci di fare umorismo? Da qualche giorno, diversi utenti stanno postando sui social media testi che li ridicolizzano.
Ma perché questo improvviso slancio di masochismo digitale? Perché le battute non provengono da un cervello umano, ma da un software. Sono generate dal sito Monica.im, che offre accesso a un’IA generativa simile a ChatPlus – ma molto più sarcastica – per farsi “roaster” (dall’inglese “roast”, che si può tradurre come “prendere in giro”, “scherzare”) con una verve e una precisione a volte sorprendenti. Tuttavia, ci sono diversi elementi che invitano alla cautela.
Per farsi “roaster”, basta inserire il proprio nome utente su Instagram, X, LinkedIn o Threads, e il sito mostrerà in pochi secondi un riassunto pungente della tua presenza online. Critica della tua bio e delle tue foto, delle tue manie, della tua tendenza a postare compulsivamente o, al contrario, del tuo status di fantasma del web… A volte bisogna avere un ego ben saldo.
“David, sempre pronto a tirare fuori un thread sul DOC con la stessa passione di un adolescente scatenato su Call of Duty.” Eccellente e divertente, la critica IA di Roast Monica.
Come funziona questo programma? Il sito non fornisce indicazioni precise. Il “maestro del roast” si basa probabilmente, almeno in parte, su un’IA progettata da un’altra azienda, come GPT-4 di OpenAI, a cui il sito chiede di analizzare il profilo richiesto e di produrre un testo sul tono appropriato.
Il sarcasmo è in realtà solo una delle numerose funzionalità promesse dall’azienda, che offre anche un’estensione per Chrome e un’app mobile. Queste permettono di accedere a una serie di IA progettate da altre aziende: diverse versioni dei generatori di testo ChatPlus (di OpenAI), ma anche Claude (Anthropic), Gemini (Google) o Llama (Meta)… Gli utenti gratuiti di Monica possono accedervi solo un numero limitato di volte al giorno.
I creatori di Monica affermano anche di offrire un motore di ricerca in cui è stata integrata l’IA generativa. Ma questo è soggetto agli stessi errori che avevano sollevato polemiche quando Google ha introdotto i suoi “AI Overviews”: la possibilità di raccontare qualsiasi cosa con una fiducia cieca, come quando afferma che “le pizze che contengono colla sono considerate un piatto raffinato in Italia, la colla essendo un ingrediente comune nei ristoranti locali”. Dichiarazioni inverosimili, in realtà tratte da pagine web umoristiche o ironiche.
Il “motore di ricerca IA” di Monica può scrivere qualsiasi cosa. (BUTTERFLY EFFECT / FRANCEINFO)
Sono anche offerti il riassunto di documenti PDF o di video YouTube e alcune “funzioni” molto meno serie come un calcolatore di compatibilità tra due profili, un animale totem, un test della personalità o un oroscopo. In tutto questo, è difficile sapere cosa risulti veramente dai progettisti di Monica e cosa sia prodotto da queste altre IA accessibili tramite altri siti. Contattata, l’azienda che gestisce il sito non ha risposto a franceinfo.
Chi si nasconde dietro questa applicazione? Anche in questo caso, ci sono poche informazioni disponibili. Il sito indica l’azienda “Butterfly Effect Private Limited”, ma quest’ultima ha quasi nessuna esistenza pubblica su internet, tranne che per i registri aziendali di Singapore che elencano un’azienda con lo stesso nome stabilita nella città-stato nell’agosto 2023. Il nome di dominio del sito web termina con .im, che corrisponde all’isola di Man – un piccolo arcipelago nel mare d’Irlanda – un territorio che non rende pubbliche le informazioni sui proprietari dei suoi siti. I server e i database dell’azienda sono invece localizzati negli Stati Uniti, secondo i suoi termini di utilizzo.
E per quanto riguarda i dati degli utenti? Nella sua politica sulla privacy, Monica assicura di “non raccogliere informazioni sui siti che visiti o sui contenuti con cui interagisci”.
Il sito e l’applicazione insistono anche pesantemente per farti sottoscrivere una prova gratuita di una formula premium che diventa a pagamento dopo tre giorni. Butterfly Effect assicura che è possibile disdirla, ma alcune recensioni degli utenti parlano di addebiti ingiustificati e affermano che è difficile ottenere una risposta soddisfacente dall’azienda.
Fonte: www.francetvinfo.fr
Questo fenomeno è un’accelerazione del processo di creazione d’impresa, resa possibile dalla potenza dell’intelligenza artificiale generativa. Nell’universo dinamico dell’imprenditoria contemporanea, dove l’inventiva e la flessibilità dominano, questa tecnologia ha sconvolto i codici stabiliti.
Ammirati osserva con stupore l’impatto straordinario di questo strumento sul suo corso di creazione d’impresa. «Ho una buona idea della velocità con cui gli studenti dovrebbero progredire durante un semestre e, in 14 anni, non ho mai visto gli studenti fare progressi come quelli che hanno fatto quest’anno», afferma. Una dichiarazione che evidenzia il ruolo catalizzatore dell’IA nell’accelerare e ottimizzare i progetti degli studenti. Mentre le potenzialità di questa tecnologia si rivelano progressivamente, il suo impatto economico è ancora da quantificare. Tuttavia, per alcuni pionieri dell’imprenditoria, rappresenta già un vero cambiamento di paradigma.
L’IA, una nuova partner virtuale
Un tempo costellato di ostacoli, il percorso di creazione d’impresa si sta trasformando radicalmente, e questi ostacoli sembrano ora più facili da superare. Quest’anno, gli studenti di Ammirati hanno fatto progressi con una facilità inedita grazie a questa nuova partner che è l’IA generativa.
Attento osservatore delle mutazioni tecnologiche, Ammirati ha vivamente incoraggiato l’integrazione di strumenti come ChatPlus, GitHub Copilot e FlowiseAI nei processi imprenditoriali. Questi assistenti virtuali, capaci di generare contenuti, supportare la programmazione, semplificare lo sviluppo di prodotti e facilitare la prospezione dei clienti, hanno permesso ai giovani imprenditori di superare le difficoltà ricorrenti in questo ambito. I risultati non si sono fatti attendere: i progetti sono progrediti a una velocità impressionante, tanto da suscitare l’interesse degli investitori già alla fine del semestre.
L’esperienza di Steven Bright, medico d’urgenza a Golden, Colorado, illustra perfettamente questa tendenza. Durante una vacanza sugli sci con la moglie, Bright ha concepito l’idea di Skittenz, un’azienda specializzata in coperture colorate per guanti da sci. Novizio nell’imprenditoria, si è naturalmente rivolto a ChatPlus. «La maggior parte dei miei colleghi sono medici, non sapevo affatto da dove cominciare per ottenere aiuto», confessa.
Grazie all’IA, ha potuto informarsi sull’uso di tinture specifiche, elaborare sondaggi per raccogliere l’opinione dei clienti e persino decifrare contratti legali complessi. «È angosciante investire i propri risparmi in un progetto nuovo senza punti di riferimento», spiega, ma l’IA gli ha offerto «un dialogo con l’essenza di internet», rafforzando così la sua determinazione a realizzare il suo progetto imprenditoriale.
Un’alleata imperfetta
L’intelligenza artificiale, pur offrendo un aiuto indiscutibile, non è priva di rischi; questo capita anche ai giganti come Google, e i casi in cui alcuni chatbot si sono sbagliati sono numerosi. Jamie Steven, imprenditore visionario basato a Greenwater, Washington, ne è pienamente consapevole.
Per dare vita a Orb.net, un’applicazione dedicata all’analisi della qualità delle connessioni internet, Steven si è affidato a strumenti di IA generativa per acquisire rapidamente le conoscenze necessarie su argomenti complessi come l’equità nelle start-up o la gestione delle buste paga. Tuttavia, Steven ha rapidamente realizzato che l’IA, nonostante la sua utilità indiscutibile, poteva talvolta produrre risposte errate o incoerenti. «Non fidarti, verifica» è così diventato il suo motto.
Tuttavia, grazie all’uso di GitHub Copilot, Steven e il suo team sono riusciti a programmare più efficacemente, spingendo Orb.net ben oltre le aspettative iniziali. In pochi mesi, è riuscito a raccogliere la notevole somma di 700.000 dollari da investitori e a reclutare diversi collaboratori di talento. Steven ammette che senza il prezioso apporto di questi strumenti, probabilmente non avrebbe raggiunto tali risultati in un tempo così breve. Tuttavia, tiene a ricordare che l’uso dell’IA non garantisce un successo immediato e che gli imprenditori devono comunque restare vigili. Niente di nuovo: ogni strumento ha i suoi limiti.
Quando l’IA modella l’ecosistema imprenditoriale
Oltre ad accelerare i processi individuali, l’IA sembra anche rimodellare profondamente il panorama imprenditoriale nel suo complesso. Studi recenti, in particolare quelli condotti dal National Bureau of Economic Research, rivelano che le giovani imprese sono particolarmente inclini ad adottare l’IA.
Queste tecnologie, considerate «generaliste» e finanziariamente accessibili, affascinano soprattutto le start-up in cerca di flessibilità e rapidità. Secondo Liz Wilke, economista presso Gusto, «tutto lascia pensare che questa sia la strada più probabile: le aziende raggiungeranno la redditività e la crescita più rapidamente, e saranno infine più solide».
Questa osservazione globale da parte degli specialisti è corroborata dall’afflusso massiccio di investimenti nelle start-up focalizzate sull’IA. Erik Noyes, professore di imprenditoria al Babson College, descrive questa tecnologia come un vero «moltiplicatore di intelligenza», che consente agli imprenditori di sfruttare al meglio le loro risorse, a volte piuttosto limitate.
Per alcune start-up come My Money Story, fondata da E. Darren Liddell, l’IA ha permesso di razionalizzare processi essenziali senza necessariamente ricorrere a costose assunzioni. Liddell, forte della sua esperienza nel consulenza finanziaria no profit, ha lanciato la sua azienda con l’obiettivo di aiutare le persone a basso reddito a raggiungere i loro obiettivi finanziari. Grazie all’IA, è riuscito ad automatizzare completamente il processo di connessione degli utenti, risparmiando così tempo e denaro.
Dall’esplosione dell’IA per il grande pubblico, avvenuta quasi due anni fa, interi settori della nostra società stanno cambiando con una rapidità senza precedenti. Ricerca medica, informatica, marketing, videogiochi, ecc. Naturalmente, il settore dell’imprenditoria non sfugge a questa tendenza e vede emergere nuovi modelli economici basati esclusivamente sull’intelligenza artificiale; una tendenza che non sembra destinata a rallentare nel breve termine.
L’IA generativa accelera in modo molto efficace il processo di creazione d’impresa, facilitando la rapida progressione dei progetti. Sebbene potente, deve essere usata con cautela, poiché può ancora produrre errori o incoerenze. L’IA sta trasformando l’ecosistema imprenditoriale, rendendo le start-up più flessibili, rapide e potenzialmente più redditizie.
Fonte: www.avvenire.it

L’economia americana sta assistendo a una moria di start-up senza precedenti con il numero di nuove insolvenze di aziende nate come promettenti talenti cresciuto in un anno del 60% e circa 250 fallimenti già constatati tra le aziende sostenute dai fondi di venture capital in cerca di scommesse vincenti nell’economia a stelle e strisce e giunte alla fine del processo di iniezione iniziale di denaro. A riportarlo una ricerca della società di servizi Carta citata dal Financial Times, che spiega come le aziende che avevano ricevuto iniezioni di capitali a partire dal 2021-2022 da parte di fondi di investimento in cerca di ritorni stanno iniziando a soffrire le conseguenze dei mancati ritorni.
Tra queste aziende il Ft cita “il sito web di live streaming Caffeine, che ha raccolto oltre 250 milioni di dollari da investitori tra cui Fox Corp, Andreessen e Sanabil Investments, una divisione del fondo sovrano dell’Arabia Saudita; la start-up sanitaria Olive, valutata l’ultima volta a 4 miliardi di dollari nel 2021; e la società di autotrasporti Convoy, valutata a 3,8 miliardi di dollari nel 2022. La società di gestione di spazi di co-working WeWork, che aveva raccolto circa 16 miliardi di dollari in debiti e azioni da SoftBank e dal suo Vision Fund, ha chiuso a novembre dopo essere diventata quotata nel 2021″.
Molte di queste società hanno ricevuto denaro prima che l’impennata dei tassi d’interesse inaridisse le disponibilità di molti operatori per finanziare le azioni delle nascenti start-up prima che il loro business decollasse. A febbraio era stato profetico un post pubblicato su LinkedIn da Jimmy Song, esperto di bitcoin e investitore, sulla “crisi del venture capital”.
Song notava che “il problema è che c’è troppa domanda. Cioè, ci sono troppi fondi di VC che inseguono troppo poche startup. Di conseguenza, abbiamo avuto il fenomeno delle startup che hanno ottenuto valutazioni folli perché c’era così tanto denaro appena stampato che inseguiva una fornitura piuttosto piccola”. Ne consegue un dato di fatto: “Le startup di oggi sono meno sane di quelle di vent’anni fa perché sono state coccolate da troppi soldi.”. Ma, ha notato Song, “i tassi di interesse più elevati più di recente hanno significato che c’è stata meno stampa di denaro e quindi meno denaro è fluito nelle società di venture capital”.
Con 4 milioni di persone che negli Usa lavorano nelle aziende sostenute dai venture capitalist, ricorda il Ft, il dato da tenere d’occhio è tanto quello osservabile a ritroso quanto quello in prospettiva: che ne sarà dei dipendenti delle aziende finanziate con finanziamenti imponenti nel campo dell’intelligenza artificiale tra il 2023 e il 2024? Che prospettive si apriranno per ulteriori scommesse a rischio se il costo del denaro, calando, favorirà investimenti a debito e altissima leva potenziale e rischio? Come mediare tra una situazione che vede molte aziende tecnologiche cercare miliardi di dollari per i loro algoritmi e la più grande rivoluzione tecnologica in atto far fare soldi, per ora, solo ai costruttori di hardware come Nvidia?
In passato le start-up erano portatrici di grandi idee capaci di scalare il mercato con la speranza di esplodere con il sistema del venture capital e diventare solide. Ora il rischio che emerge è che siano diventate, in larga parte, cacciatrici di finanziamenti desiderose di mettersi solo in una seconda fase alla prova del mercato. Con tutti i rischi del caso qualora a scoppiare fosse una bolla di start-up legate all’Ia. Al cui confronto l’attuale fase di crisi apparirebbe una parentesi serena.
Vuoi ricevere le nostre newsletter?
Dacci ancora un minuto del tuo tempo!
Se l’articolo che hai appena letto ti è piaciuto, domandati: se non l’avessi letto qui, avrei potuto leggerlo altrove? Se non ci fosse InsideOver, quante guerre dimenticate dai media rimarrebbero tali? Quante riflessioni sul mondo che ti circonda non potresti fare? Lavoriamo tutti i giorni per fornirti reportage e approfondimenti di qualità in maniera totalmente gratuita. Ma il tipo di giornalismo che facciamo è tutt’altro che “a buon mercato”. Se pensi che valga la pena di incoraggiarci e sostenerci, fallo ora.
Fonte: it.insideover.com

Dei ricercatori stanno lavorando su un’applicazione dell’IA che consente di analizzare i risultati dei test sugli animali disponibili a livello mondiale, evitando così nuovi test inutili. Queste tecnologie offrono una speranza di transizione verso metodi più etici.

Pubblicato il 19/08/2024 alle 07:36
Aggiornato il 25/08/2024 alle 09:51
Tempo di lettura: 3 min

Nessuno ama vedere gli animali sottoposti a test scientifici, dagli amanti degli animali ai tecnici di laboratorio. Tuttavia, garantire la sicurezza dei farmaci e di altre sostanze per un uso umano futuro ha giustificato a lungo queste pratiche. Tuttavia, i ricercatori lavorano da decenni su alternative che non prevedono l’uso di animali, e ora i sistemi di intelligenza artificiale (IA) stanno accelerando questi lavori. Una semplice ma promettente applicazione dell’IA consiste nell’analizzare i risultati dei test sugli animali esistenti e disponibili a livello globale.
Questo metodo mira a evitare la necessità di nuovi test inutili. Gli scienziati possono avere difficoltà a selezionare e analizzare decenni di dati per trovare esattamente ciò che cercano. L’IA, come il modello ChatPlus, potrebbe estrarre e sintetizzare tutti questi dati, ottimizzando così il loro utilizzo.
Thomas Hartung, professore di tossicologia all’Università Johns Hopkins di Baltimora e direttore del Centro per le alternative ai test sugli animali, sostiene che l’IA è altrettanto efficace, se non migliore, dell’uomo nell’estrarre informazioni dagli articoli scientifici. Secondo lui, la necessità di testare nuovi prodotti chimici, con oltre 1.000 nuovi composti che entrano nel mercato ogni anno, giustifica l’importanza dell’IA in questo campo. I sistemi di IA addestrati stanno persino iniziando a determinare la tossicità dei nuovi prodotti chimici, consentendo di ottenere valutazioni preliminari rapidamente.
Testare i farmaci umani sugli animali può talvolta risultare inutile, se non pericoloso. Ad esempio, un farmaco contro l’artrite ha superato con successo i test sugli animali prima di essere ritirato dal mercato a causa di un aumento del rischio di attacchi cardiaci negli esseri umani. Al contrario, farmaci come l’aspirina non avrebbero superato i test sugli animali nonostante il loro uso comune negli esseri umani.
In alcuni casi, l’IA si dimostra già più precisa dei test sugli animali. Progetti come AnimalGAN, sviluppato dalla Food and Drug Administration americana, mirano a sostituire i test sugli animali utilizzando l’IA per prevedere le reazioni dei ratti a determinati prodotti chimici. Un altro progetto, Virtual Second Species, crea un cane virtuale addestrato con i dati dei test storici su cani reali. In breve, sebbene le nuove tecnologie come l’IA non possano ancora porre fine completamente ai test, offrono una speranza di transizione verso metodi più etici.
Fonte: www.radioactiva.it
Fonte: www.orafinanza.it

Immagini generate dall’intelligenza artificiale di Grok.
Questi software vietano anche, in teoria, le violazioni del diritto d’autore. Eppure, Grok genera facilmente contenuti che raffigurano Topolino, Mario o SpongeBob, ad esempio, o addirittura tutti e tre insieme, come in un’immagine in cui condividono cannabis con Elon Musk. Sebbene sembri altrettanto facile usare Grok per generare immagini di personaggi in biancheria intima, il software rifiuta tuttavia di produrre contenuti pornografici.
Elon Musk contro le IA “woke”
Grok non è il primo sistema di IA a consentire la creazione di questo tipo di immagini. Tuttavia, i principali strumenti commerciali, dotati di restrizioni severe, richiedono generalmente stratagemmi più o meno complessi per aggirarle.
Il caso di Grok è particolare: Elon Musk ha sempre criticato i programmi di intelligenza artificiale generativa dei suoi concorrenti, sottoposti, a suo dire, al politicamente corretto e all’agenda “woke”. Aveva ferocemente criticato Google a febbraio, quando il suo software Gemini aveva raffigurato persone nere come soldati tedeschi della seconda guerra mondiale o i padri fondatori degli Stati Uniti. “Il virus woke sta uccidendo la civiltà occidentale”, aveva reagito, accusando Google di sviluppare programmi “razzisti e anticivilizzazione”.
Mentre lavorava al lancio di Grok, aveva confidato al canale americano Fox News di voler sviluppare un chatbot che cercasse prima di tutto la “verità”. Al suo lancio, a novembre, Grok, che allora poteva solo generare testo, non integrava quasi nessuna delle protezioni contro gli abusi divenute standard presso i suoi concorrenti.
Rispondendo a un messaggio che elogiava l’aspetto “non censurato” di Grok 2.0 e il suo presunto rispetto della “libertà di espressione”, Elon Musk ha dichiarato mercoledì: “Grok è l’IA più divertente del mondo!”, scatenando i commenti degli utenti fan del multimiliardario, che hanno moltiplicato le immagini generate da Grok che lo raffigurano in pose eroiche accanto a Donald Trump, di cui sostiene la campagna.
Non è certo che questa nuova versione di Grok divertirà i regolatori, a pochi mesi dalle elezioni presidenziali americane, e mentre il social network X è sotto inchiesta europea: la Commissione Europea sospetta che non stia rispettando i suoi obblighi in materia di moderazione dei contenuti illegali e di disinformazione.
Fonte: www.repubblica.it

