Il 3 luglio scorso, Kyutai ha svelato Moshi, un modello di intelligenza artificiale dotato di capacità vocali inedite. Il prototipo del chatbot ha fatto i suoi primi passi con la stampa, ma è anche disponibile per tutti a questo indirizzo. La particolarità di questo prototipo è di poter comunicare oralmente in modo il più naturale ed espressivo possibile, rimanendo allo stesso tempo attento al suo interlocutore.
Il modello multimodale di Moshi può anche essere installato localmente e funzionare senza connessione a internet. La fondazione Kyutai rilascia questo modello in open source, per contribuire alla ricerca e allo sviluppo dell’ecosistema IA. Abbiamo voluto saperne di più su Moshi e sul laboratorio con il suo CEO, Patrick Perez.
Moshi è un assistente vocale con capacità che superano quelle di GPT-4o in alcuni settori chiave: parla e ascolta simultaneamente, continuando a generare un “flusso di pensiero”, il che a volte è sconcertante nell’uso. Moshi è ciò che più si avvicina a un’esperienza di conversazione umana?
Moshi.chat non è un assistente vocale, ma un prototipo sperimentale costruito su Moshi, un modello multimodale generico testo-voce che abbiamo sviluppato da zero. Questo prototipo dimostra, infatti, capacità di interazione orale senza precedenti in termini di naturalezza e fluidità.
Quali sono i possibili utilizzi di Moshi? In quali settori vi piacerebbe che questa tecnologia trovasse il suo posto?
Le applicazioni potenziali di questo modello multimodale sono numerose:
1/ Dialogo orale naturale con un’IA (assistente o compagno) per l’inclusione e l’accessibilità, l’educazione, il coaching, il gioco, il servizio clienti, la ricerca di informazioni, la robotica interattiva, ecc.
2/ Sintesi vocale espressiva e multi-locutore per l’accesso audio a contenuti scritti, la creazione di artefatti culturali e artistici, il gioco, ecc.
3/ Traduzione audio simultanea per la comunicazione e l’accessibilità.
Moshi ha richiesto sei mesi di sviluppo da parte di un team di 8 persone, che sembra poco, considerando le proporzioni. Questo significa che oggi è relativamente facile progettare un assistente come Moshi?
In realtà è un’impresa! Richiede competenze molto avanzate e complementari, oltre a un lavoro estremamente intenso e mirato, e la disponibilità di sufficienti risorse di calcolo. Per quest’ultimo punto, affittiamo macchine molto potenti da Scaleway, grazie ai generosi contributi dei nostri tre fondatori.
Moshi comprende numerosi accenti, ma l’assistente al momento parla solo inglese. È previsto l’inserimento di altre lingue in futuro e, domanda supplementare, è complicato far apprendere nuove lingue a un LLM?
Prevediamo di includere altre lingue, a partire dal francese e dallo spagnolo. Detto questo, l’idea è di condividere liberamente i nostri modelli e i codici che permettono di riaddestrarli in tutto o in parte. L’inclusione di altre lingue, anche se non triviale, potrà quindi essere realizzata da altri attori dell’ecosistema che dispongono delle risorse necessarie (dati, competenze, macchine) e di casi d’uso appropriati.
Helium, il LLM su cui si basa Moshi, conta 7 miliardi di parametri, che possono sembrare molti, ma come si confronta con altri LLM (non conosciamo il numero di parametri di GPT-4) e, soprattutto, la qualità di un LLM si limita al numero di parametri? E quali sono i dati di addestramento che avete utilizzato?
È un modello di dimensioni medie. I “piccoli” modelli hanno piuttosto tra i 2 e i 3 miliardi di parametri, mentre i “grandi” possono avere dimensioni che vanno da decine a centinaia (o addirittura migliaia?) di miliardi di parametri. La dimensione non è tutto, ma con i dati giusti (volume e qualità) e le tecniche di apprendimento più recenti, una maggiore dimensione permette generalmente di ottenere migliori prestazioni su una gamma più ampia di compiti. Per il pre-addestramento di Helium utilizziamo un mix abbastanza classico di dati dal web, in particolare provenienti dal progetto CommonCrawl. Dell’ordine di mille miliardi (un bilione) di parole scritte.
Il processo di apprendimento di Moshi ha anche coinvolto 100.000 conversazioni orali e un motore “Text-to-Speech”. Qui ho bisogno che mi spieghi come funziona!
Helium “scrive” questi 100.000 dialoghi, e una versione precedente di Moshi, che permette la sintesi vocale con voci date, li trasforma in conversazioni audio.
C’è qualcuno dietro la “voce” di Moshi?
Abbiamo lavorato con un’artista vocale i cui registrazioni, fatti insieme, hanno permesso di fissare la voce dell’IA nelle 100.000 conversazioni menzionate in precedenza.
Kyutai ha anche sviluppato una variante di Moshi destinata a funzionare in locale, quindi senza connessione a internet. Sarà possibile utilizzarla sul proprio computer personale tramite GPU. Due domande: perché non con l’NPU, che equipaggia sempre più PC e Mac? E una versione tipo “nano” per smartphone è fattibile?
I nostri modelli sono attualmente progettati per essere addestrati e poi utilizzati su GPU di Nvidia. La dimostrazione di una versione locale compressa è stata quindi naturalmente realizzata sullo stesso tipo di chip, ma più piccolo. Come laboratorio di ricerca, cercavamo soprattutto di dimostrare la fattibilità di versioni embedded dei nostri modelli. Speriamo che la condivisione di questi modelli e dei codici associati permetta ad altri di andare oltre in termini di portabilità, in base alle loro esigenze. Sì, si può immaginare in futuro un Moshi più piccolo e più specializzato che giri su un mobile.
Quando si parla di IA generativa, la questione della sicurezza si pone abbastanza rapidamente. Come si può essere sicuri che Moshi non verrà utilizzato a fini malintenzionati?
Come per altre IA generative, parte del “finetuning” (fase di apprendimento supervisionato che segue il pre-addestramento non supervisionato su larga scala) è dedicata a rafforzare la sicurezza insieme ad altre capacità. Inoltre, stiamo lavorando al watermarking invisibile dei contenuti generati dai nostri modelli, un problema di ricerca allo stesso tempo difficile e importante.
Infine, crediamo fermamente nei benefici dell’open-source in materia di sicurezza (tra l’altro): più attori possono ispezionare, valutare e mettere in sicurezza i modelli così condivisi. Nella misura in cui l’uso malintenzionato di modelli generativi sempre più potenti (in termini di controllo e realismo) e sempre più numerosi è impossibile da evitare, divulgare e informare costantemente su questi argomenti tecnici è cruciale per limitare i danni.
Quale futuro per Moshi?
Continuiamo a svilupparlo per migliorare alcune delle sue capacità (pertinenza, espressività, lingue)… e non vediamo l’ora di vedere come l’ecosistema lo utilizzerà e lo modificherà non appena avremo condiviso modelli, codici e informazioni tecniche (lavoro in corso).
Kyutai ha una posizione piuttosto unica in Francia e in Europa, poiché il laboratorio è stato finanziato da Xavier Niel. È una garanzia rispetto ad altre aziende IA che hanno investitori alla ricerca prima di tutto della redditività?
Finanziato anche da Eric Schmidt e Rodolphe Saadé; i tre sono donatori, non investitori (siamo una fondazione). Quindi sì, questo ci assicura una grande indipendenza nella scelta delle nostre ricerche e nella costituzione del team, pur disponendo di mezzi eccezionali.
Fonte: www.01net.com

Elon Musk ha depositato una denuncia martedì 6 agosto contro un’organizzazione di pubblicitari e diversi grandi gruppi, accusandoli di aver “illegalmente” boicottato la sua piattaforma X (ex-Twitter), causando perdite per diversi miliardi di dollari.
“Abbiamo cercato di risolvere la questione pacificamente per due anni, ora è guerra”, ha twittato il patron di X.
Le aziende coinvolte sono accusate di pratiche anticoncorrenziali in una denuncia presentata contro la Federazione Mondiale degli Inserzionisti (WFA) presso un tribunale federale in Texas.
Miliardi di euro di spese pubblicitarie privati
Tra i gruppi coinvolti figurano Mars e l’anglo-olandese Unilever, entrambi nel settore alimentare, oltre alla grande catena americana di farmacie CVS Health e l’azienda energetica danese Orsted.
Nei documenti legali consultati dall’AFP, la WFA è accusata di aver, tramite la sua iniziativa chiamata GARM (Global Alliance for Responsible Media, in italiano Alleanza Mondiale per i Media Responsabili), lavorato dietro le quinte con questi gruppi e altri, al fine di “privare collettivamente di miliardi di dollari di spese pubblicitarie” il social network X.
A seguito dell’acquisizione dell’ex-Twitter da parte di Elon Musk alla fine del 2022, molti pubblicitari hanno deciso di lasciare la piattaforma, temendo che le loro pubblicità potessero essere affiancate da contenuti problematici a causa dell’allentamento delle procedure di moderazione.
X vittima di un “boicottaggio sistematico illegale”
In un video pubblicato su questo social network martedì, la sua direttrice generale Linda Yaccarino ha affermato che X è stato vittima di un “boicottaggio sistematico illegale”.
“Si sono accordati per boicottare X, il che mette in discussione le nostre capacità di sviluppo future. Nessun piccolo gruppo di persone dovrebbe avere la possibilità di monopolizzare ciò che può essere monetizzato”, ha dichiarato.
X spera in un processo e nell’ottenimento di un risarcimento danni, per un importo che non è stato specificato.
Il social network sta soffrendo: secondo il “New York Times”, che ha avuto accesso a documenti interni, X ha realizzato solo 114 milioni di fatturato negli Stati Uniti nel secondo trimestre, in calo del 25% rispetto al primo e addirittura del 53% rispetto allo stesso periodo dell’anno scorso.
La denuncia è stata presentata appena 24 ore dopo quella di Elon Musk contro OpenAI, la società madre di ChatPlus, e i suoi fondatori, Sam Altman e Greg Brockman, accusati di aver tradito la missione fondatrice dell’azienda riguardo all’intelligenza artificiale.
Fonte: www.nouvelobs.com
Perplexity: L’Accordo con i Media per Condividere i Ricavi e Superare le Accuse di Plagio”
La piattaforma Perplexity, al centro di polemiche e accuse di plagio, ha annunciato martedì 30 luglio di aver raggiunto un accordo finanziario con diverse aziende, tra cui dei media, che dovrebbe portare a una condivisione dei ricavi tra questi editori e la start-up specializzata in intelligenza artificiale (IA).
Perplexity, che cerca di competere con i principali agenti conversazionali basati sulla raccolta massiva di dati, come ChatPlus, propone una sorta di motore di ricerca sul quale gli utenti possono porre una domanda e ricevere una risposta basata sull’aspirazione di più fonti – a volte articoli di stampa –, alcune delle quali messe in evidenza dallo strumento. Tra i titoli interessati ci sono Time, The Texas Tribune, Entrepreneur, Fortune e Der Spiegel. È stato inoltre raggiunto un accordo con Automattic, la casa madre della piattaforma di blog WordPress.
Questo annuncio arriva mentre diversi media, tra cui il gruppo Condé Nast, hanno accusato Perplexity di plagio e chiesto alla start-up di smettere di aspirare i loro contenuti per alimentare il suo motore di ricerca. A giugno, la rivista Forbes aveva avviato una disputa con l’azienda, accusando il servizio, che produce articoli e persino un podcast di attualità, di aver interamente aspirato e copiato delle inchieste giornalistiche.
Il CEO di Perplexity, Aravind Srinivas, ha affermato in un comunicato che queste nuove partnership permetteranno alla sua azienda di sostenere finanziariamente il giornalismo di qualità, mettendo in evidenza la trasparenza del suo motore di ricerca, che rende pubbliche le fonti utilizzate. La società ha concordato, secondo l’agenzia di stampa Bloomberg, un accordo che permetterà ai media interessati di ricevere una parte dei futuri ricavi pubblicitari di Perplexity, senza che venga comunicata la percentuale esatta.
Ricavi pubblicitari
L’azienda dovrebbe infatti nei prossimi mesi mostrare, sotto alcune risposte, delle “domande correlate” che saranno in realtà dei contenuti sponsorizzati. “Che si tratti di pubblicazioni di qualità stabilita o di blogger indipendenti, se utilizziamo il vostro contenuto come fonte per generare una risposta, e se monetizziamo quella risposta, vogliamo condividerlo”, spiega Dmitry Shevelenko, direttore commerciale di Perplexity. La start-up assicura che dovrebbe annunciare una nuova lista di partner ad agosto, con l’obiettivo di negoziare accordi con trenta o quaranta media ed editori entro la fine dell’anno.
La direzione dell’azienda afferma che queste nuove partnership non sono state pensate in risposta alle diverse polemiche legate a Perplexity. Un’inchiesta pubblicata a giugno da Wired rivelava che i robot utilizzati dalla start-up per aspirare dati online e alimentare i suoi algoritmi aggiravano le protezioni messe in atto da alcuni editori. Secondo la rivista specializzata, Perplexity raccoglieva alcune pagine o alcuni siti anche quando gli amministratori davano istruzioni per impedire ai robot di aspirare il contenuto. Una pratica controversa che è anche oggetto di un’indagine interna di Amazon, i cui alcuni servizi sarebbero utilizzati da Perplexity.
Fonte: www.wired.com


L’impegno del gruppo Rakuten per integrare l’intelligenza artificiale inizia al vertice della gerarchia. Il CEO Hiroshi Mikitani è determinato a dare alla sua azienda un vantaggio competitivo e ha creato una partnership con OpenAI per sviluppare soluzioni di IA su misura.
Debra Bonomi è responsabile della formazione e dello sviluppo (L&D) presso Rakuten Advertising. Spiega come Rakuten ha lavorato con OpenAI per sviluppare una implementazione privata di ChatPlus per il personale dell’azienda.
«Fa sapere a tutte le entità di Rakuten che l’IA rivoluzionerà tutto», ha dichiarato a proposito del suo CEO. «Si impegna a cambiare il nostro stato mentale. Questa tecnologia cambierà la nostra organizzazione! L’IA cambierà su cosa ci concentriamo, come ci concentriamo e le missioni stesse dei nostri ruoli.»
Avere un CEO che percepisce il potere delle tecnologie emergenti è un punto di partenza importante. Tuttavia, è necessario che i dipendenti adottino gli strumenti.
È qui che entra in gioco la signora Bonomi. È stata incaricata di creare un framework per aiutare le 800 persone del suo dipartimento ad adottare e sfruttare l’IA. Ha lavorato con la società ELB Learning, che ha creato un programma in tre fasi:
- Le basi
- Le certificazioni
- I progetti
«Era il programma più completo che avessi mai visto», dice. «Ora vogliamo estendere la certificazione a tutta l’azienda. Sto lavorando con dirigenti di diversi paesi per promuovere questo programma in tutta l’organizzazione.»
Fase 1: le basi
Sebbene sia facile credere che tutti siano aggiornati sull’IA generativa, Debra Bonomi afferma che non è così. Molte persone hanno bisogno di apprendere le basi. «Cos’è l’IA? Quali sono i tipi di IA? Come funziona un grande modello linguistico? Qual è la differenza tra ChatPlus e altri strumenti? Abbiamo coperto tutti questi aspetti per portare tutti allo stesso livello».
La formazione di base è iniziata alla fine del 2023. La prima fase ha permesso al personale di apprezzare le opportunità offerte dall’IA e i rischi etici e di sicurezza.
Prima dell’inizio del programma, il 78% dei dipendenti non si sentiva a proprio agio con l’uso dell’IA. Oggi, l’86% di loro si sente a proprio agio nel passare all’apprendimento dell’ingegneria dei prompt.
Fase 2: le certificazioni
Con le basi per aiutare le persone a comprendere l’IA, alcuni dipendenti passano alla fase 2.
Bonomi ha preso il modulo di tre ore di ELB sull’ingegneria dei prompt e lo ha suddiviso in tre sessioni di un’ora ciascuna, concentrate sui seguenti argomenti:
Uso di ChatPlus e dell’ingegneria dei prompt
Introduzione di più iterazioni nelle conversazioni con un agente
Applicazione della tecnologia a compiti di studio di casi
Ha poi organizzato laboratori di un’ora per perfezionare le conoscenze del personale.
«Chiunque avesse seguito una formazione poteva partecipare a un laboratorio», dice. «Le persone potevano fare tutte le domande che volevano in questi laboratori. È stato fantastico. Abbiamo poi condiviso queste conoscenze con tutta l’azienda, in modo che le persone che non hanno partecipato ai laboratori potessero comunque imparare».
La partecipazione ai workshop e ai laboratori è supportata da una certificazione: «il secondo livello riguarda la formazione e lo sviluppo delle competenze necessarie per utilizzare gli strumenti di IA. Stiamo implementando certificazioni per dimostrare chiaramente che le persone hanno acquisito conoscenze.»
Fase 3: i progetti
La signora Bonomi prevede che i dipendenti di Rakuten entreranno nella terza fase quest’anno. L’idea qui è di passare a casi d’uso specifici.
«Costruiranno agenti con ChatPlus che avranno un impatto diretto sulla loro attività o azienda», dice. Si tratterà anche di «creare una roadmap strategica per ogni business unit».
Secondo la signora Bonomi, è a questo terzo livello che Rakuten esporrà ed esplorerà i cambiamenti di ruolo potenziali dovuti all’introduzione dell’IA.
«A questo punto, lavoreremo con le risorse umane per aiutarci in questo processo», dice.
Portare l’IA al livello successivo
La signora Bonomi vuole trovare nuovi modi per estendere il programma. Piuttosto che concentrarsi solo su ChatPlus, l’obiettivo è assicurarsi che i dipendenti di Rakuten siano sicuri nell’utilizzo di tutte le forme di IA.
Osserva già che i dipendenti stanno usando l’IA generativa come assistente personale per migliorare la loro produttività. E fa lo stesso. «Tutte quelle cose che odiavo fare, non vedo l’ora che l’IA le faccia per me, così posso dedicare più tempo ai campi creativi, alla strategia e alla collaborazione.»
Il consiglio che dà agli altri dirigenti aziendali che desiderano migliorare le competenze della propria azienda in materia di IA è di avviare un programma di formazione.

Ritardi e Limitazioni: Cosa Aspettarsi da Apple Intelligence e ChatPlus”
Apple ha offerto all’inizio della settimana un assaggio delle funzioni potenziate con l’intelligenza artificiale generativa, riunite sotto il marchio Apple Intelligence. È un progetto in corso, poiché tutto ciò che è stato annunciato a giugno durante la WWDC non è ancora disponibile.
Con la prima beta di iOS 18.1 e macOS Sequoia 15.1, Apple ha svelato le prime funzionalità di Apple Intelligence: strumenti di supporto alla scrittura, un motore di ricerca migliorato nell’app Foto, un Siri (un pochino) meno stupido… Questo è solo un assaggio di ciò che ci aspetta, poiché l’elenco delle novità è molto lungo.
Ci sono, ad esempio, Image Playground, lo strumento di creazione di immagini, i Genmoji che “mescolano” le emoji, la bacchetta magica che permetterà di rimuovere oggetti indesiderati nelle Foto, il sistema di notifiche prioritarie, la comprensione da parte di Siri di ciò che accade sullo schermo… Interrogato sul calendario di rilascio durante i risultati trimestrali, Tim Cook ha fornito alcuni dettagli.
“Abbiamo iniziato con alcune funzionalità di Apple Intelligence, non con l’intero pacchetto. Ci sono altre funzionalità, come le lingue diverse dall’inglese americano, che saranno introdotte nel corso dell’anno, e altre funzionalità che verranno introdotte nel corso dell’anno”, ha detto Tim Cook.
L’integrazione di ChatPlus è inoltre prevista entro la fine dell’anno, ha assicurato il CEO di Apple, che è rimasto vago sulle altre funzioni previste nei prossimi mesi. Siri potrebbe così dover aspettare fino al 2025 per beneficiare di tutte le novità annunciate a giugno durante la WWDC.

Il Lancio di ChatPlus e le Limitazioni Regionali di Apple Intelligence
D’altra parte, il riferimento a ChatPlus è interessante, poiché lascia intendere che il bot non sarà incluso in iOS 18.1, la cui versione finale è attesa nell’autunno, forse a ottobre. ChatPlus potrebbe fare la sua comparsa con iOS 18.2, che ci si aspetta per dicembre.
Tutto ciò riguarda solo i paesi in cui Apple Intelligence sarà disponibile. Questo non è il caso né dell’Unione Europea né della Cina. In Europa, Apple ha persino annunciato che queste funzioni non saranno proposte quest’anno a causa del regolamento sui mercati digitali (DMA).
Sia nell’UE che in Cina, Apple è “impegnata in discussioni con i regolatori”, ha dichiarato Tim Cook. “Il nostro obiettivo è progredire il più rapidamente possibile, ovviamente, poiché il nostro scopo è sempre quello di mettere le funzionalità a disposizione di tutti”. Apple deve “comprendere le esigenze regolamentari” prima di avviare il processo. Il CEO afferma che l’azienda è impegnata “in modo costruttivo” con entrambi i regolatori.
Fonte: Six Colors
Si attribuiscono molti benefici all’intelligenza artificiale (IA) generativa. Secondo i suoi ferventi sostenitori, questa tecnologia, di cui ancora fatichiamo a misurare completamente il potenziale meno di due anni dopo il lancio del chatbot ChatPlus, avrebbe, tra le altre cose, il potere di facilitare la comunicazione delle persone sorde e ipoudenti con il loro entourage, a scuola o al lavoro.
È quanto sperano decine di ricercatori, sviluppatori e imprenditori. Qui, una start-up propone l’adattamento dei siti web in lingua dei segni britannica o americana, grazie a un avatar umano generato dall’IA; là, una piattaforma commercializza una soluzione di sottotitolaggio automatico per persone sorde; qui ancora, un’associazione cerca di creare un’applicazione di traduzione per facilitare gli scambi tra persone che usano la lingua dei segni e udenti… Per ora, però, i promotori di questi progetti faticano a comprendere completamente le sottigliezze delle lingue dei segni e di quella che alcuni chiamano la “cultura sorda”.
«Non ci sono abbastanza dati sulle lingue dei segni»
Lingua dei segni francese (LSF), lingua dei segni americana, lingua dei segni tedesca… Esistono nel mondo decine di lingue dei segni, ciascuna corrispondente a insiemi di codici diversi. Una prima difficoltà per chi desidera addestrare strumenti di comunicazione potenziati dall’IA per questo pubblico disabile, secondo la sviluppatrice Emmanuelle Aboaf. «Ogni paese ha il proprio modo di procedere, di analizzare i dati, di catturare la sua lingua dei segni: ciò complica l’apprendimento da parte dell’intelligenza artificiale», osserva la francese, lei stessa sorda dalla nascita e impegnata a favore dell’accessibilità attraverso il digitale.
Questi linguaggi visivi e gestuali nazionali come la LSF, all’interno dei quali si trovano persino specificità regionali, continuano ad arricchirsi nel tempo. Sviluppare uno strumento capace di riconoscere i segni richiede quindi di creare e aggiornare enormi banche dati. Questo è ciò a cui si dedica Davy Van Landuyt, capoprogetto all’interno dell’Unione Europea dei Sordi, da tre anni. Questa organizzazione non governativa, che rappresenta i sordi di 31 paesi europei, ha ottenuto dall’Unione Europea il finanziamento, dal 2021 al 2023, di due progetti di traduttori che utilizzano l’IA generativa: SignON ed Easier.
Ti resta il 57,3% di questo articolo da leggere. Il seguito è riservato agli abbonati.
Fonte: www.lemonde.fr
Ho utilizzato e testato diversi prodotti e-ink negli ultimi anni, tra cui i Kindle di Amazon e il ReMarkable 2. Sebbene siano molto diversi tra loro, condividono una limitazione comune: funzionalità ridotte. Mi piace leggere una varietà di formati, non solo eBook, ma anche blog e articoli online.
Se apprezzo il mio Kindle per la sua semplicità, è anche il suo maggiore tallone d’Achille. Allo stesso modo, il ReMarkable 2 è principalmente un tablet per prendere appunti e non fa molto altro. Nessuno dei due è in grado di eseguire applicazioni come uno smartphone. È qui che il lettore Onyx Boox Page fa la differenza.
Tre punti da notare del lettore Onyx Boox Page
- L’Onyx Boox Page dispone di uno schermo e-ink da 7’’ e costa 280 €.
- Funziona con una versione semplificata di Android 11, che ti permette di scaricare tutte le applicazioni che desideri, inclusi Kindle, TikTok, Google Docs, ecc.
- Non aspettarti che il tablet riceva gli aggiornamenti più recenti del sistema operativo Android.
Ho apprezzato soprattutto la Boox Page perché funziona con Android. Si tratta di una versione semplificata del sistema operativo, ma amplia le capacità di un e-reader giusto quanto basta. Ad esempio, quando leggo un libro o un blog e mi viene un’idea, posso aggiungere una nota a Google Keep o Docs sul tablet e cercarla più tardi sul mio smartphone o computer portatile.
Benvenuto Android!
Capisco che il Kindle e il ReMarkable 2 siano progettati per una lettura e una presa di appunti senza distrazioni. Ma il fatto di poter eseguire applicazioni Android sul mio tablet da lettura migliora la mia produttività! Se non hai bisogno di tutte le app e le funzionalità aggiuntive, considerale come bonus gratuiti.

Prakhar Khanna/ZDNET
L’utilizzo di Android significa anche che, teoricamente, puoi usare Instagram, YouTube, Twitter e altre applicazioni su questa Boox Page. Ho utilizzato YouTube quando ho testato la Boox Tab Ultra, ma l’esperienza è stata negativa. Gli schermi e-ink non si aggiornano abbastanza velocemente per i video.
Ho installato Kindle, Flipboard e Chrome sul mio tablet Onyx Boox Page. I primi due li utilizzo per leggere libri online, mentre uso Chrome per navigare su Internet a scopo di ricerca e ideazione. Considero che questa sia l’estensione ideale delle capacità dell’e-reader.

Prakhar Khanna/ZDNET
Personalizzazione dell’interfaccia utente
La Boox Page viene fornita con una custodia a libro, che offre una buona protezione, ma a causa della posizione degli magneti, è necessario fare una certa pressione per ripiegare il coperchio sull’écran.
Per quanto riguarda l’interfaccia utente, è sorprendentemente ricca di opzioni di personalizzazione. Puoi regolare la funzionalità dei due pulsanti laterali situati sul bordo, inclusi:
- Il passaggio da una pagina all’altra tramite i comandi del volume
- I gesti di scorrimento
- Le impostazioni di visualizzazione
- I modi di aggiornamento dello schermo
La facilità con cui è possibile fare queste regolazioni significa che mi sono ritrovato a modificare il tasso di aggiornamento per ogni applicazione. E questo è un aspetto positivo.
Un gesto di scorrimento verso il basso dall’angolo superiore destro dello schermo consente di accedere al pannello di controllo per attivare il Wi-Fi, il Bluetooth e altre funzioni, proprio come su uno smartphone o tablet Android.

Scorri verso il basso per accedere al centro di controllo
La Boox Page offre anche le applicazioni Library e Store del marchio, che sono piene di libri gratuiti da scaricare. E, a differenza di quanto avviene con il Kindle, puoi scaricare da altri negozi di ebook e recuperare ebook o audiolibri collegando il dispositivo a un computer. Inoltre, puoi ascoltare audiolibri collegando un paio di cuffie Bluetooth alla tablet.
Confortevole e autonomo
Lo schermo E Ink da 7’’ è dotato di uno strato antiriflesso, che rende la lettura piacevole. Inoltre, il tablet può ruotare per visualizzare meglio i siti web più ampi. Lo schermo è molto nitido e lo apprezzo. È un peccato che non ci sia un modo per regolare automaticamente la temperatura della luce in base all’ambiente, una funzione disponibile su dispositivi come il Kindle Oasis.

**La Boox Page è progettata per funzionare con una sola carica fino a sei settimane se leggi un’ora al giorno. Dai miei test, il tablet ha tenuto circa due settimane per carica. Questo include l’uso delle applicazioni Kindle e Chrome. Il tablet dispone di uno spazio di archiviazione di base di 32 GB, e ho riempito il dispositivo con quasi 20 GB durante i miei quattro mesi di utilizzo. Fortunatamente, se ti manca spazio di archiviazione, puoi sempre espanderlo grazie al lettore integrato per schede microSD.**
**Consigli per l’acquisto del lettore Onyx Boox Page**
L’Onyx Boox Page amplia le capacità degli e-reader e-ink tradizionali proprio quanto basta, rendendolo adatto al mio flusso di lavoro senza causare distrazioni.
A 280 €, è facile da raccomandare, con un formato leggero e sottile che è abbastanza portatile e autonomo da essere il mio compagno di viaggio.
Anche se la Boox Page è ancora basata su Android 11, il lettore ha ricevuto diverse piccole aggiornamenti dalla sua uscita, l’ultimo dei quali ha aggiunto un assistente IA (perché no?), alimentato da ChatPlus. Sarebbe stato più interessante se Onyx avesse integrato l’IA in modo un po’ più creativo, ad esempio generando voci di personaggi in audiolibri fittizi, ma per ora il chatbot è disponibile nel caso ne avessi bisogno.
Fonte: www.zdnet.fr

Da anni, era un ritornello instancabilmente ripetuto dai rappresentanti repubblicani negli Stati Uniti, in testa Donald Trump: la Silicon Valley è un rifugio di sinistrorsi che censurano i conservatori sui social media e fanno campagna per i democratici.
Ma da diversi mesi, questo argomento logoro e poco fondato è scomparso dal linguaggio dell’ex presidente americano e dei suoi sostenitori. E non a caso: X, ex-Twitter, sventola ora il vessillo repubblicano. Elon Musk, il padrone, ha scritto esplicitamente di «sostenere pienamente» Donald Trump, poche ore dopo che quest’ultimo è stato vittima di un tentativo di omicidio. Ha anche creato un «Super PAC», un «comitato di azione politica» che consente, tra l’altro, di raccogliere fondi per sostenere la campagna di Trump, assicurando però che i numeri rivelati dalla stampa su una donazione personale di 45 milioni di dollari al mese fino alle elezioni sono falsi.
Mentre i capi di Meta, Microsoft, TikTok o Alphabet-Google sono stati più volte messi sotto torchio da esponenti repubblicani durante le commissioni d’inchiesta parlamentare, che li hanno sommati di dimostrare la loro neutralità politica, Elon Musk non è mai stato invitato a spiegarsi. I rappresentanti repubblicani sono ora più discreti riguardo al presunto pregiudizio della Silicon Valley, soprattutto da quando diversi grandi nomi del capitale di rischio di San Francisco, la maggior parte vicini al proprietario di X e a Peter Thiel, hanno pubblicamente preso posizione a favore di Donald Trump. Le loro critiche si sono ora spostate verso i grandi servizi di intelligenza artificiale (IA) generativa, come ChatPlus o Bard, accusati di essere «woke», o più in generale progressisti. A meno, ovviamente, di Grok, l’IA di Elon Musk, che quest’ultimo presenta come «anti-woke».
«Deepfake» di Kamala Harris
Il patron di X ha moltiplicato nelle ultime settimane le provocazioni contro i democratici e i segnali che è perfettamente pronto a piegare le stesse regole del suo social network per sostenere Donald Trump. Il 26 luglio, per esempio, ha ripubblicato un video che utilizza le immagini di un clip della campagna di Kamala Harris, commentato da una voce che imita quella della candidata per farle dire che si sta candidando solo «perché Joe Biden ha mostrato pubblicamente di essere senile» e attaccando le sue competenze. Visto oltre 100 milioni di volte, questo deepfake è però verosimilmente contrario alle regole del social network, che vietano generalmente questo tipo di contenuti, salvo nei casi in cui si tratta di una satira evidente.
Fonte: www.lemonde.fr




