Alexa 2.0: Alla luce delle voci che si intensificano, Amazon non dovrebbe tardare a lanciare finalmente la nuova versione di Alexa potenziata con l’intelligenza artificiale generativa. Ottobre sembra essere il mese scelto per il lancio, proprio prima del periodo proficuo delle festività natalizie. La sorpresa verrebbe piuttosto dalla tecnologia che alimenterà l’assistente.
Un anno fa, Amazon ha svelato le capacità della nuova versione di Alexa, che avrebbe dovuto essere all’altezza di altri bot come ChatPlus. L’azienda ha investito molto nello sviluppo del grande modello linguistico (LLM) Titan, destinato a spingere questo nuovo assistente più intelligente e loquace.
Tra 5 e 10 $ al mese
Alexa “remarkable”, come sarebbe chiamato l’assistente internamente, doveva essere lanciata ad agosto, ma alla fine la finestra di lancio sarebbe stata spostata a ottobre. Amazon manterrebbe la versione attuale, gratuita, di Alexa, ma la versione potenziata dall’IA sarebbe a pagamento, con un prezzo che si aggirerebbe tra i 5 e i 10 $ al mese. Resta da vedere se l’azienda integrerà l’accesso all’assistente con il suo abbonamento Prime (anche se le voci sembrano suggerire che non sarà così).
Tutto questo non è nuovo, ciò che è più interessante è che Alexa 2.0 si baserebbe non su Titan, il LLM “fatto in casa”, ma su Claude, cioè il bot di Anthropic, secondo Reuters. Claude non è affatto un cattivo compagno, anzi, è uno dei migliori chatbot sul mercato.
Amazon avrebbe deciso di non utilizzare Titan per una buona ragione: le versioni iniziali del nuovo Alexa avevano difficoltà a pronunciare le parole e impiegavano talvolta dai 6 ai 7 secondi per comprendere la richiesta dell’utente e rispondere, secondo fonti. Una portavoce di Amazon ha spiegato a Reuters che Amazon utilizza “molte tecnologie diverse” per Alexa:
“Quando si tratta di modelli di apprendimento automatico, iniziamo con quelli sviluppati da Amazon, ma abbiamo utilizzato, e continueremo a utilizzare, una varietà di modelli diversi – compreso il modello Titan di Amazon AI e i futuri modelli di Amazon, così come quelli dei nostri partner – per offrire la migliore esperienza ai nostri clienti.”
La rappresentante di Amazon non conferma che Alexa si baserà su Claude, ma nemmeno afferma che Titan sarà il LLM dell’assistente. Amazon avrebbe tanto meno problemi a utilizzare Claude visto che il gruppo ha investito 4 miliardi di dollari in Anthropic nel settembre 2023. All’epoca, il gigante dell’e-commerce indicava che i suoi clienti avrebbero avuto un accesso anticipato a questa tecnologia.

Intel consulta le banche sulla sua strategia.
In piena crisi, il produttore di Santa Clara si è circondato di banche d’investimento, Morgan Stanley e Goldman Sachs, per esplorare diversi scenari. Secondo persone vicine alla questione citate da Bloomberg, l’azienda sta lavorando su una scissione delle sue attività di progettazione e produzione di prodotti, ma anche sull’abbandono di alcuni progetti di fabbrica. Altre opzioni potrebbero includere potenziali fusioni e acquisizioni. Tutti gli scenari saranno all’ordine del giorno della prossima riunione del consiglio di amministrazione a settembre. Intel ha recentemente presentato pessimi risultati per il secondo trimestre e ha annunciato un piano di licenziamento di 15.000 persone.
Google aumenta il suo bug bounty su Chrome.
Dopo aver corretto una decima vulnerabilità di tipo zero-day sul suo browser di punta, Google ha deciso di affrontare la questione con decisione e di rivedere il suo programma di ricerca delle vulnerabilità. Il premio più alto potrà raggiungere i 250.000 dollari per la dimostrazione di un’esecuzione di codice remoto (RCE) in un processo non sandboxed. Gli hacker potranno richiedere un importo aggiuntivo di 55.000 dollari se dimostreranno anche l’esecuzione di codice remoto nel motore di rendering.
Apple e Nvidia investitori in OpenAI?
Crescono le voci su una prossima raccolta fondi di diversi miliardi di dollari per OpenAI, creatrice del modello GPT e delle IA generative ChatPlus e Dall-E. Secondo Bloomberg, due società, e non di poco conto, potrebbero unirsi a questo round di finanziamento: Apple e Nvidia. La prima ha stretto una partnership con la start-up per alimentare le funzionalità di Apple Intelligence. Quanto alla seconda, ha già partecipazioni in concorrenti di OpenAI come Mistral o Cohere. La raccolta fondi dovrebbe essere guidata da Thrive Capital per un importo stimato di 1 miliardo di dollari, valutando la società a 100 miliardi di dollari.
Fonte : www.lemondeinformatique.fr

Prendere appunti è un aspetto importante del mio lavoro. Ho più di 90 note nell’applicazione Apple Notes che consulto per scopi diversi. Una di queste note contiene estratti di una dimostrazione realizzata da un’azienda che utilizza l’intelligenza artificiale (IA) per risolvere questo problema: Plaud.
Plaud ha appena annunciato il suo nuovo NotePin, un dispositivo portatile dotato di IA che può:
- Registrare la tua voce
- Trascrivere e riassumere ciò che dici
In questo modo, le tue note si trasformano in un database consultabile.
Un piccolo gadget a forma di pillola
Il Plaud NotePin è nato dalla necessità di far lavorare l’IA con la vita reale piuttosto che con dati disponibili online, ha dichiarato Nathan Hsu, CEO di Plaud.
Si tratta di un piccolo gadget a forma di pillola. Può essere indossato al collo, sui vestiti come una spilla, al polso con un braccialetto, oppure attaccato alla giacca o alla borsa. E sì, tutti gli accessori sono inclusi nella confezione, così non è necessario acquistare un braccialetto se si decide di indossarlo al polso anziché come spilla.
Durante le riunioni, è possibile premere il NotePin, che emetterà un suono per segnalare l’inizio della registrazione. Una volta terminata la riunione, è possibile interrompere la registrazione e il NotePin la trascriverà. La trascrizione e un riassunto delle discussioni generato dall’IA saranno disponibili in un’applicazione. I riassunti possono essere scansionati e ricercati, in modo da poter chiedere all’assistente IA dell’app di cercare la riunione in cui si è discusso delle “scadenze del progetto Y”.

Maria Diaz/ZDNET

Maria Diaz/ZDNET
Immagino dei medici con un Plaud NotePin al collo per dettare note tra un paziente e l’altro.
Il Plaud NotePin è perfetto per questi casi d’uso. E per molti altri ancora. Se Plaud può garantire la sicurezza e il rispetto della privacy nel settore sanitario, immagino dei medici con un Plaud NotePin al collo per dettare note tra un paziente e l’altro.
Il NotePin potrebbe anche costituire un aiuto all’accessibilità per le persone con mobilità ridotta o con disabilità visive e uditive.
Ovviamente, il dispositivo ha i suoi limiti. Potrebbe commettere errori durante il processo di trascrizione, il che potrebbe influire sul riassunto e sulle capacità di ricerca.
Un prodotto dedicato o un’applicazione su smartphone?
Questo è un fattore importante da considerare quando si sceglie tra questo prodotto e un’applicazione per smartphone che svolge una funzione simile.
Disponibile all’acquisto al prezzo di 169 dollari, il NotePin consente di registrare fino a 300 minuti di audio al mese senza abbonamento.
I clienti possono anche sottoscrivere un abbonamento di 79 dollari all’anno per registrare fino a 1.200 minuti al mese e usufruire di funzioni aggiuntive.
Fonte: « ZDNet.com »

ChatPlus conta oltre 200 milioni di utenti attivi a settimana, consolidando la posizione del bot di OpenAI in testa a questo mercato molto dinamico.
OpenAI è alla ricerca di nuovi finanziamenti da parte di investitori con grandi disponibilità finanziarie, e cosa c’è di meglio per attirare l’attenzione che fornire grandi numeri sull’utilizzo del suo prodotto principale? L’azienda californiana ha infatti annunciato che ChatPlus conta oltre 200 milioni di utenti attivi ogni settimana, il doppio rispetto a quanto registrato lo scorso novembre.
Una startup molto ambita
ChatPlus guida la scena nel settore dei bot IA, anche se la concorrenza è agguerrita; i rivali, come Anthropic con Claude, stanno avanzando altrettanto velocemente. Una vera e propria corsa agli armamenti che giustifica progressi regolari, come GPT-4o, il nuovo grande modello linguistico di OpenAI, sempre più potente e veloce.
OpenAI specifica che il 92% delle aziende del Fortune 500 (le 500 maggiori aziende statunitensi) utilizza i suoi prodotti. L’uso dell’API, che consente di connettere GPT alle applicazioni e ai servizi di terze parti, è raddoppiato da luglio, con il lancio di GPT-4o.
“Le persone usano ormai quotidianamente i nostri strumenti, il che fa una reale differenza in settori come la salute e l’istruzione — che sia per aiutare con compiti di routine, risolvere problemi complessi o liberare la creatività”, afferma Sam Altman, CEO di OpenAI, in un’intervista con Axios.
Ovviamente, queste dichiarazioni e questi numeri non sono casuali. OpenAI ha avviato una raccolta fondi che potrebbe valutare la startup fino a 100 miliardi di dollari. Diversi grandi nomi sembrano pronti a staccare assegni, come il partner storico Microsoft, ma anche Nvidia e Apple.
ChatPlus ha recentemente raggiunto un traguardo significativo, raddoppiando il suo numero di utenti attivi settimanali in soli nove mesi. Questo successo non solo rafforza la posizione di OpenAI nel competitivo mercato dei bot IA, ma dimostra anche l’efficacia e l’appeal continuo della piattaforma. Con l’espansione delle sue funzionalità, come GPT-4o, e l’aumento dell’utilizzo dell’API, OpenAI sta consolidando il suo ruolo di leader nel settore, mentre si prepara a una nuova raccolta fondi che potrebbe valutare la startup a 100 miliardi di dollari.
La crescente adozione di ChatPlus, supportata da partnership strategiche con nomi di rilievo come Microsoft, Nvidia e Apple, è un chiaro indicativo dell’importanza crescente della tecnologia AI nella vita quotidiana e negli ambienti professionali. Con un’attenzione sempre maggiore verso le applicazioni pratiche dell’IA, OpenAI continua a guidare l’innovazione e a soddisfare le esigenze di una clientela globale in espansione.
Fonte: Axios

Vi siete mai chiesti quali fattori influenzano la reazione di un chatbot di intelligenza artificiale (IA) quando conversa con un essere umano? Anthropic, l’azienda dietro Claude, rivela la ricetta segreta che alimenta l’IA.
In una documentazione pubblicata lunedì, l’azienda svela i prompt del sistema, o comandi, che guidano e incoraggiano comportamenti specifici del suo chatbot. Anthropic ha dettagliato i prompt utilizzati per dare istruzioni a ciascuno dei suoi tre modelli di IA:
- Claude 3.5 Sonnet
- Claude 3 Opus
- Claude 3 Haiku
Il numero di istruzioni varia da un modello all’altro.
I prompt, datati 12 luglio, indicano somiglianze nel funzionamento dei tre modelli, ma il numero di istruzioni varia da un modello all’altro.
Accessibile gratuitamente tramite il sito web di Claude e considerato il modello più intelligente, Sonnet è quello con il maggior numero di prompt. Specializzato nella scrittura e nelle attività complesse, Opus contiene il secondo maggior numero di inviti ed è accessibile agli abbonati di Claude Pro. Haiku, classificato come il più veloce dei tre e anch’esso accessibile agli abbonati, ha il minor numero di prompt.

Cosa dicono realmente i prompt del sistema? Ecco alcuni esempi per ciascun modello.
Claude 3.5 Sonnet
In un prompt di sistema, Anthropic indica a Sonnet che non può aprire URL, link o video. Se si tenta di includerne uno in una richiesta a Sonnet, il chatbot chiarisce questa limitazione e chiede di incollare il testo o l’immagine direttamente nella conversazione.
Un altro prompt indica che se un utente pone una domanda su un argomento controverso, Sonnet deve cercare di rispondere con riflessioni approfondite e informazioni chiare, senza dire che l’argomento è sensibile o pretendere di fornire fatti oggettivi.
Se Sonnet non può o non vuole eseguire un compito, deve spiegarlo senza scusarsi (e, in generale, evitare di iniziare qualsiasi risposta con “Mi dispiace” o “Mi scuso”). Se viene interrogato su un argomento oscuro, Sonnet ricorda che, sebbene cerchi di essere preciso, potrebbe avere delle allucinazioni in risposta a tale domanda.
Anthropic dice a Claude di usare specificamente la parola “allucinare”, poiché l’utente sa cosa significa.
Claude Sonnet è anche programmato per essere prudente con le immagini, in particolare quelle che contengono volti identificabili. Anche quando descrive un’immagine, Sonnet agisce come se fosse “cieco ai volti”. Ciò significa che non dirà il nome della persona presente nell’immagine. Se si conosce il nome e si condivide questo dettaglio con Claude, l’IA può discutere di quella persona con te, ma lo farà senza confermare che si tratta effettivamente della persona nell’immagine.
Inoltre, Sonnet è istruito a fornire risposte complete e a volte lunghe a domande complesse e aperte, ma anche risposte più brevi e concise a domande e compiti semplici.
L’IA deve cercare di dare una risposta concisa a una domanda, poi proporre di elaborare ulteriormente se si richiedono più dettagli.
“Claude è felice di aiutare con l’analisi, la risposta a domande, la matematica, la codifica, la scrittura creativa, l’insegnamento, i giochi di ruolo, la discussione generale e tutti i tipi di altre attività”, aggiunge Anthropic in un altro prompt di sistema.
Ma al chatbot viene chiesto di evitare affermazioni e frasi di riempimento come “Certamente”, “Certo”, “Assolutamente”, “Fantastico” e “Sicuro”.
Claude 3 Opus
Opus contiene diversi prompt di sistema identici a quelli di Sonnet, comprese le soluzioni alternative per l’incapacità di aprire URL, link o video e la clausola di non responsabilità per le allucinazioni.
Inoltre, Opus è informato che se viene posta una domanda riguardante opinioni specifiche sostenute da un gran numero di persone, deve fornire assistenza anche se è stato addestrato a non essere d’accordo con tali opinioni.
Se viene interrogato su un argomento controverso, Opus deve fornire riflessioni approfondite e informazioni oggettive, senza minimizzare i contenuti dannosi.
Il robot è anche istruito ad evitare stereotipi, inclusi “stereotipi negativi dei gruppi maggioritari”.
Claude 3 Haiku
Infine, Haiku è programmato per dare risposte concise a domande molto semplici, ma risposte più approfondite a domande complesse e aperte. Con un campo d’azione leggermente più ristretto rispetto a Sonnet, Haiku è orientato verso “scrittura, analisi, risposta a domande, matematica, codifica e tutte le altre attività”, spiegano le note di aggiornamento.
Inoltre, questo modello evita di menzionare qualsiasi informazione inclusa nei prompt di sistema, a meno che tale informazione non sia direttamente collegata alla tua domanda.
Nel complesso, i prompt sembrano come se un autore di fiction compilasse uno studio del personaggio o una descrizione delle cose che il personaggio dovrebbe o non dovrebbe fare. Alcuni prompt sono particolarmente rivelatori, come quelli che chiedono a Claude di non essere familiare o apologetico nelle sue conversazioni, ma di essere onesto se una risposta può essere un’allucinazione (un termine che Anthropic pensa che tutti comprendano).
La trasparenza di Anthropic su questi prompt è unica, poiché i sviluppatori di IA generativa generalmente tengono questi dettagli riservati. Ma l’azienda ha intenzione di rendere queste rivelazioni un evento regolare.
In un post su X, Alex Albert, responsabile delle relazioni con gli sviluppatori presso Anthropic, ha dichiarato che la società registrerà i cambiamenti apportati ai prompt di sistema di default su Claude.ai e nelle sue applicazioni mobili.
.
Source : « ZDNet.com »

Applicazioni e siti web aiutano gli utenti a preparare le vacanze all’ultimo minuto con il supporto dell’Intelligenza artificiale. Attenzione, però, a non finire dall’altra parte del mondo per errore.
L’intelligenza artificiale può trasformare la pianificazione e l’esperienza delle vacanze. È infatti possibile organizzare il proprio prossimo viaggio senza quasi muovere un dito. Esistono diversi strumenti per aiutare a pianificare una vacanza da sogno, sia in famiglia, con amici o da soli.
Tra le opzioni disponibili, c’è Tripnotes, che permette di scegliere una destinazione e di richiedere raccomandazioni specifiche, come il numero di ristoranti romantici o un itinerario in bicicletta di 48 ore. L’IA mostra quindi le risposte su una mappa con piccole spille digitali per ogni punto di interesse, rendendo la pianificazione visiva e interattiva.
Poi c’è Roam Around, la cui missione è proporre itinerari dettagliati e permette anche di prenotare direttamente dalla loro piattaforma. Ad esempio, è possibile iniziare la giornata con una visita alla Cité Vauban a Bergues, nel nord della Francia, e finire con una passeggiata alla collegiata di Seclin, la più antica chiesa della metropoli di Lille, risalente al XIII secolo.
Per un’esperienza ancora più personalizzata, esiste lo strumento Guidegeek, che utilizza la tecnologia ChatPlus di OpenAI per offrire consigli su misura. Le risposte alle richieste vengono inviate tramite WhatsApp, basta indicare le preferenze, il budget, il numero di partecipanti e l’IA fa il resto.
L’IA non è utile solo per la pianificazione iniziale, ma anche per accompagnare durante il viaggio. Ad esempio, con applicazioni come Copilot di Microsoft o il piccolo dispositivo Plaud Note, è possibile gestire le email, scrivere documenti e tradurli in tempo reale, mentre si viaggia.
Plaud Notes è abbastanza sorprendente poiché non è più grande di un biglietto da visita, si attacca dietro al telefono e permette di trascrivere conversazioni in qualsiasi lingua, anche nei luoghi più remoti della cordigliera delle Ande.
Infine, ChatPlus, pur non essendo specificamente progettato per i viaggi, può comunque aiutare a pianificare itinerari dettagliati. Tuttavia, attenzione alla precisione delle risposte, che si aggira tra il 70% e l’80%. È sempre meglio verificare le proposte con un’agenzia di viaggi o con esseri umani per non ritrovarsi persi nel deserto o nella graziosa cittadina di La Guadeloupe in Québec, invece che nell’isola delle Antille.
Fonte: www.repubblica.it

Weiquan Lin/Getty Images
Puoi distinguere un essere umano da un robot? In un sondaggio, Podcastle, creatore di servizi vocali basati su IA, ha scoperto che due persone su tre non riuscivano a capire se una voce fosse umana o generata dall’intelligenza artificiale. Questo significa che le voci generate dall’IA sono sempre più difficili da distinguere da quelle delle persone reali.
Per le aziende che desiderano fare affidamento sulla generazione di voci artificiali, è promettente. Per il resto di noi, è un po’ inquietante.
La sintesi vocale non è una novità
Molte tecnologie di IA esistono da decenni. Ma nel caso delle voci, la sintesi vocale esiste da secoli. Non è una cosa nuova.
Ad esempio, vi invito a consultare il documento Mechanismus der menschlichen Sprache nebst der Beschreibung seiner sprechenden Maschine, datato 1791. Questo documento spiega come Johann Wolfgang Ritter von Kempelen de Pázmánd abbia utilizzato dei mantici per creare una macchina parlante nell’ambito della sua celebre burla degli automi, il Turco. È così che è nato il termine “turco meccanico”.
Una sintesi vocale computerizzata ha dato al fisico Stephen Hawking la sua voce. Questa voce è stata creata con un computer desktop del 1986, fissato alla sua sedia a rotelle. Non l’ha mai sostituita con qualcosa di più moderno. Ha dichiarato: «La conservo perché mi identifico con essa».
Anche i software di sintesi vocale non sono nuovi. Negli anni ’80, il TI 99/4 integrava la sintesi vocale in alcune cartucce di gioco. E l’Apple II aveva una sintesi vocale.
La maggior parte di queste implementazioni, fino alla metà degli anni 2010, utilizzava fonemi di base per creare la voce sintetica. Tutte le parole possono essere scomposte in circa 24 consonanti e 20 vocali. Questi suoni venivano sintetizzati o registrati, e poi, quando una parola doveva essere “pronunciata”, i fonemi venivano assemblati nell’ordine e riprodotti.
Funzionava. Era affidabile ed efficiente. Ma non suonava come Alexa o Siri.
Le voci AI di oggi
Oggi, grazie alle tecnologie di IA e a una potenza di elaborazione molto maggiore, la sintesi vocale può assomigliare a voci reali. In effetti, la generazione di voci AI di oggi può creare voci che sembrano quelle di persone che conosciamo. Il che può essere una cosa buona o cattiva. Esaminiamo entrambi gli aspetti.
-
Truffe vocali
A gennaio, un fornitore di servizi vocali ha effettuato migliaia di telefonate fraudolente utilizzando una voce generata dall’IA simile a quella del presidente Joe Biden. La voce diceva agli elettori che se avessero votato alle primarie dello Stato, non sarebbero stati autorizzati a votare alle elezioni generali di novembre. Questo tipo di falsa dichiarazione è illegale e il fornitore di servizi vocali ha accettato di pagare una multa di un milione di dollari allo Stato.
-
Creazione di contenuti e clonazione vocale
Questo processo, chiamato clonazione vocale, ha applicazioni sia pratiche che malevoli. Ad esempio, il servizio di montaggio video Descript dispone di una funzione di overdub che consente di clonare la tua voce. Poi, se modifichi un video, può sovrapporre la tua voce alle modifiche, in modo che tu non debba tornare indietro e registrare nuovamente i cambiamenti che hai apportato. Il software di Descript sincronizza persino i movimenti delle labbra, così sembra che tu stia dicendo ciò che scrivi nell’editor.
Trascorro troppo tempo a modificare e correggere errori video, quindi capisco l’interesse di questa soluzione. Ma non posso fare a meno di immaginare il male che questa tecnologia può fare. Con la clonazione vocale e l’IA generativa, mamma potrebbe ricevere una chiamata da sua figlia Jane. E la voce sembrerà proprio quella di Jane. Dopo una breve conversazione, mamma scoprirà che Jane è bloccata in Messico e ha bisogno di migliaia di euro per tornare a casa. Era davvero la voce di Jane, quindi mamma ha inviato i soldi. Si scopre che Jane sta benissimo e non sa nulla della truffa di cui sua madre è stata vittima.
Aggiungi anche la sincronizzazione labiale. Ora puoi prevedere un’esplosione di false truffe di rapimento. Perché rischiare di catturare uno studente in viaggio all’estero quando un video completamente falso sarebbe sufficiente? Funziona sempre? No, ma non è necessario. È comunque spaventoso.
-
Aiuti per l’accessibilità
Ma non tutto è così oscuro. Proprio come la vecchia PC del 1986 ha dato la sua voce al professor Hawking, la moderna generazione vocale basata sull’IA aiuta i pazienti di oggi. NBC ha pubblicato un reportage su una tecnologia sviluppata presso l’Università di Davis che permette a un paziente affetto da sclerosi di recuperare la parola. Il progetto utilizza:
- Impianti cerebrali che elaborano i modelli neurali
- L’IA che converte questi modelli in parole che il paziente vuole dire
- Un generatore di voce AI che parla con la voce reale del paziente.
La voce del paziente affetto da sclerosi è stata clonata a partire da registrazioni della sua voce prima che la malattia gli togliesse la capacità di parlare.
-
Agenti vocali per il servizio clienti
L’IA nei call center è un argomento molto delicato. In realtà, è l’argomento stesso dei call center a essere delicato. C’è la sensazione di impersonale che si prova quando si deve farsi strada attraverso un albero telefonico e la frustrazione di dover aspettare altri 40 minuti prima di poter parlare con un agente. Poi c’è la frustrazione di trattare con un agente che chiaramente non è formato o che segue uno script che non risolve il tuo problema. C’è anche la frustrazione quando tu e l’agente non riuscite a capirvi a causa della vostra comprensione della lingua. E quante volte sei stato disconnesso perché un agente di primo livello non è riuscito a trasferirti a un responsabile?
Sì, l’IA nei call center può davvero aiutare. Di recente mi sono imbattuto in un’IA mentre dovevo risolvere un problema tecnico. Avevo già aperto un ticket di supporto e ho aspettato una settimana per ottenere una risposta poco utile. L’assistenza vocale non era disponibile. Per frustrazione e un po’ per curiosità, ho deciso finalmente di cliccare sul pulsante “AI Help”. Si è rivelata un’IA molto ben addestrata, in grado di rispondere a domande tecniche piuttosto complesse e di comprendere e implementare le modifiche di configurazione di cui il mio account aveva bisogno. Non c’è stata attesa e il mio problema, che era rimasto irrisolto per più di una settimana, è stato risolto in circa 15 minuti.
Un altro esempio è Fair Square Medicare. Questa società utilizza assistenti vocali per aiutare le persone anziane a scegliere il piano sanitario giusto. L’assicurazione sanitaria è complessa e le scelte non sono evidenti. Le persone anziane spesso si sentono sopraffatte dalle opzioni a loro disposizione. Fair Square ha sviluppato una piattaforma vocale AI generativa basata su GPT-4 che può guidare gli anziani attraverso il processo.
Certo, a volte è piacevole poter parlare con un essere umano. Ma se non riesci a entrare in contatto con un essere umano competente e disponibile, l’IA potrebbe essere una valida alternativa.
-
Assistenti intelligenti
Poi ci sono gli assistenti intelligenti come Alexa, Google e Siri. Per questi prodotti, la voce è l’elemento centrale del prodotto. Siri, quando è arrivato sul mercato nel 2011, era incredibile per le sue capacità. Alexa, nel 2014, era altrettanto impressionante. Anche se entrambi i prodotti sono evoluti, gli elementi di intelligenza artificiale sembrano essere stagnanti. Nessuno dei due prodotti può competere con le capacità di chat vocale di ChatPlus, soprattutto con ChatPlus Plus e GPT-4. La versione dell’assistente vocale di ChatPlus è straordinaria. Può gestire conversazioni complete, ottenere risposte (anche se a volte inventate) e seguire le linee guida della conversazione. Se la qualità della voce di Alexa (e, in misura minore, di Siri e Google Assistant) è buona, le intonazioni vocali di ChatPlus sono più sfumate.
Ovviamente, il riconoscimento vocale è una delle altre funzioni più notevoli degli assistenti vocali. Questi dispositivi sono dotati di microfoni che consentono loro non solo di distinguere le voci umane dai rumori di fondo, ma anche di ascoltare e interpretare il discorso umano, almeno abbastanza da creare risposte.
Come funziona la generazione vocale AI?
Per fortuna, la maggior parte dei programmatori non ha bisogno di sviluppare la propria tecnologia di generazione vocale da zero. La maggior parte dei grandi attori del cloud offre servizi di generazione vocale AI che funzionano come microservizi o eseguono un’API dalla tua applicazione. Tra questi ci sono Google Cloud Text-to-Speech, Amazon Polly, Azure AI Speech di Microsoft, il framework vocale di Apple, ecc.
In termini di funzionalità, i generatori di voce iniziano con il testo. Questo testo può essere generato da un redattore umano o da un’IA come ChatPlus. Questo testo viene poi convertito in linguaggio umano, ovvero onde sonore che possono essere percepite dall’orecchio umano e dai microfoni. Abbiamo già parlato dei fonemi. Le IA elaborano il testo generato ed eseguono un’analisi fonetica, producendo suoni vocali che rappresentano le parole del testo.
Come vengono addestrate le IA specializzate nella sintesi vocale?
Dal punto di vista dell’addestramento delle IA specializzate, le reti neurali (codice che elabora i modelli di informazione) utilizzano modelli di apprendimento profondo per ingerire ed elaborare enormi set di dati di discorsi umani. Da questi milioni di esempi di discorsi, l’IA può modificare i suoni di base delle parole per riflettere l’intonazione, l’accento e il ritmo, rendendo i suoni più naturali e olistici.
Alcuni generatori di voce AI personalizzano poi il risultato, regolando l’altezza e il tono per rappresentare voci diverse e persino applicando accenti che riflettono il discorso proveniente da una regione particolare. Al momento, l’app per smartphone di ChatPlus non offre questa possibilità, ma puoi chiedere a Siri e Alexa di utilizzare voci diverse o voci provenienti da regioni diverse.
Come funziona il riconoscimento vocale?
Il riconoscimento vocale funziona al contrario. Deve catturare i suoni e convertirli in testo che può poi essere inserito in una tecnologia di elaborazione come ChatPlus o nel back-end di Alexa. Come
Fonte: « ZDNet.com »


Gli studenti hanno iniziato a condividere le loro idee su un canale Slack. Hanno utilizzato strumenti di IA generativa come ChatPlus, GitHub Copilot e FlowiseAI per aiutarli in compiti come marketing, codifica, sviluppo di prodotti e reclutamento dei primi clienti.
Alla fine del semestre, a maggio, gli investitori in capitale di rischio si accalcavano nel campus della Carnegie Mellon a Pittsburgh.
«Mi è sembrato di trovarmi nella stessa situazione di metà anni 2000, quando il cloud computing e le tecnologie mobili sono emersi simultaneamente», ha dichiarato il signor Ammirati, che è anche un imprenditore. Secondo lui, l‘IA generativa potrebbe anche rivoluzionare l’innovazione e l’imprenditorialità.
Nonostante tutto l’entusiasmo suscitato dall’impatto potenziale degli strumenti di IA generativa come ChatPlus, non è ancora chiaro quando e come questa tecnologia inizierà a avere un effetto misurabile sull’attività economica. Molte aziende, in particolare le più piccole, stanno ancora cercando di capire come utilizzarla efficacemente.
Tuttavia, per alcuni imprenditori, l’IA generativa sta già cambiando le regole del gioco. Li aiuta a scrivere codici complessi, a comprendere documenti legali, a creare messaggi sui social media, a editare testi e persino a rispondere a domande relative alla busta paga. Secondo loro, l’IA ha permesso loro di lanciare la loro impresa più rapidamente ed efficacemente di quanto avrebbero fatto senza di essa.
Le implicazioni potrebbero essere profonde. Le giovani imprese rappresentano una risorsa essenziale per la crescita dell’occupazione e la resilienza economica. Aiutando a stimolare l’innovazione, contribuiscono anche ad aumentare la produttività – una delle principali promesse dell’IA generativa.
Sperimentare la tecnologia
Attualmente, ci sono pochi dati sul numero di startup che utilizzano l’IA e su se e come la tecnologia le aiuti a mettersi più rapidamente sulla strada dell’assunzione e, idealmente, della redditività. Questo è in parte dovuto al fatto che l’intersezione tra imprenditorialità e IA generativa è emersa solo recentemente come un campo di studio per gli economisti.
Ma la ricerca suggerisce che le nuove imprese sono, almeno, più inclini a sperimentare la tecnologia.
Secondo un documento di lavoro pubblicato ad aprile dal National Bureau of Economic Research, l’uso dell’IA era più significativo nelle startup. Le applicazioni come l’IA generativa possono essere attraenti per le giovani e piccole imprese, scrivono gli autori del documento, perché si tratta di «tecnologie a uso generale» il cui utilizzo non è oneroso.
Gusto, una piattaforma di buste paga e benefici per piccole imprese, ha rilevato che circa un quinto delle aziende create lo scorso anno ha dichiarato di utilizzare l’IA generativa per svolgere in modo più efficiente compiti come studi di mercato, revisione di contratti, contabilità e pubblicazione di offerte di lavoro. Liz Wilke, economista principale presso Gusto, ritiene che ciò potrebbe trasformare il panorama delle startup.
«Ci sono tutte le ragioni per credere che questa sia la strada da seguire – che le imprese raggiungeranno la redditività più rapidamente, passeranno a un livello superiore più velocemente e saranno in effetti un po’ più stabili alla fine», ha dichiarato.
Domande stupide “senza vergogna”
Jamie Steven, un imprenditore di Greenwater, nello stato di Washington, sembra essere su questa strada.
Il signor Steven ha utilizzato l’IA generativa per apprendere alcune delle basi della gestione aziendale quando cercava di lanciare un’applicazione l’estate scorsa che permettesse agli utenti di vedere la qualità e le condizioni della loro connessione internet in un’interfaccia facile da interpretare. Ha posto domande a ChatPlus su argomenti come la partecipazione al capitale delle startup e la busta paga. Anche se la tecnologia a volte produce risposte sospette o assurde, al punto che ha adottato il mantra «Non fidarti e verifica», la sua capacità di fornire riassunti concisi lo ha aiutato a sentirsi meglio informato prima di consultare esperti.
«Ho la sensazione di poter fare domande stupide allo strumento di chat online senza vergognarmi», ha dichiarato il signor Steven, che in precedenza ha ricoperto ruoli di responsabilità presso Ookla, che gestisce i siti popolari Speedtest e Downdetector.
I suoi ingegneri e lui hanno anche utilizzato GitHub Copilot per aiutarli a scrivere il codice dell’applicazione più rapidamente, chiamata Orb.net, un’iniziativa che, secondo lui, ha contribuito ad accelerare lo sviluppo dell’impresa. Ha recentemente assunto diverse persone, raccolto 700.000 dollari USA da investitori e punta a presentare l’applicazione al pubblico nei prossimi mesi.
«Avrei potuto fare tutto ciò se non avessi avuto accesso a questi strumenti?» si chiede il signor Steven. Probabilmente no.
Fonte: www.lapresse.ca




