
Al CES si parla meno di “gadget” e più di AI come infrastruttura quotidiana: qual è il vero cambio di paradigma che stiamo vedendo quest’anno?
Il vero cambio di paradigma che osserviamo quest’anno al CES non risiede tanto nell’hardware fisico, quanto nella trasformazione dell’intelligenza artificiale da “funzione accessoria” a infrastruttura critica. Fino a poco tempo fa, un “gadget” era definito dal suo form factor e dalle sue specifiche tecniche; oggi, l’hardware sta diventando un semplice contenitore, quasi un terminale, per un’intelligenza che risiede altrove (nel cloud o elaborata localmente tramite NPU). Il paradigma si è spostato dall’interazione esplicita — l’utente che tocca uno schermo per ottenere un risultato — all’interazione implicita e predittiva. Non stiamo più guardando dispositivi che “fanno cose” quando glielo chiediamo, ma agenti autonomi che agiscono come un sistema nervoso invisibile, anticipando bisogni e gestendo flussi di lavoro complessi. L’innovazione non è più nel pixel o nel design della scocca, ma nella capacità del dispositivo di scomparire per lasciare spazio al servizio proattivo.
Samsung spinge “Galaxy AI”, ma sotto il cofano c’è spesso Gemini di Google: cosa significa, in concreto, per il controllo dell’esperienza utente e per la catena del valore?
Stiamo assistendo a una complessa manovra di posizionamento nella catena del valore. In concreto, questo significa che se l’intelligenza che rende magico il telefono appartiene a Google, il produttore del dispositivo rischia di diventare un semplice assemblatore di vetro e silicio. Per l’esperienza utente, si crea un forte dualismo: l’interfaccia è Samsung, ma il cervello è Google. Chi controlla il “modello” controlla la comprensione dell’utente. Se Samsung non riesce a differenziare la sua AI a livello di servizi esclusivi o integrazioni hardware uniche, cede di fatto a Google le chiavi del regno, trasformando il proprio top di gamma in un veicolo di distribuzione per i servizi di Mountain View
Come la normativa europea (AI Act) potrebbe specificamente limitare o modificare le funzionalità di questi ecosistemi rispetto al mercato USA?
L’Europa sta diventando un mercato tecnologicamente distinto grazie a norme che impongono cautela al posto della velocità. Mentre negli USA l’interazione con l’AI punta a essere indistinguibile dalla realtà, in Europa avremo più “frizioni”, come etichette obbligatorie per i contenuti generati e avvisi costanti quando si parla con una macchina. Infine, i rischi legali più elevati costringono i fornitori di servizi a impostare filtri di sicurezza molto più rigidi, rendendo i modelli AI europei tendenzialmente più “prudenti” e limitati nelle risposte rispetto alle controparti americane.
La partita si gioca sul telefono, l’oggetto più personale: chi controlla l’AI sullo smartphone controlla anche dati, abitudini e decisioni? Dove passa il confine tra utilità e dipendenza funzionale?
Lo smartphone non è più un computer tascabile, ma una protesi cognitiva ed emotiva. Chi controlla l’AI su questo dispositivo — che sia Apple, Google o un player terzo come OpenAI integrato nel sistema — detiene un potere senza precedenti di mediazione della realtà. Il confine tra utilità e dipendenza funzionale viene varcato nel momento in cui l’AI smette di essere uno strumento di consultazione e diventa un decisore. Se l’assistente filtra le email, riassume le notizie e suggerisce le risposte, sta curando la nostra percezione del mondo. La dipendenza funzionale si manifesta quando l’utente non è più in grado di gestire il flusso di informazioni senza l’ausilio dell’algoritmo, concedendo all’AI non solo i propri dati, ma la delega sulle proprie scelte quotidiane.
Gemini si estende oltre i telefoni (TV, elettrodomestici, wearable, auto): stiamo entrando davvero nell’era dell’“ecosistema AI”? E quali rischi crea un cervello unico distribuito su tanti dispositivi?
L’espansione di Gemini e simili su TV, auto ed elettrodomestici segna l’ingresso nell’era dell’Ambient Computing, dove l’ecosistema non è più una serie di dispositivi connessi, ma un’unica intelligenza distribuita. Questo scenario offre una comodità senza pari: la tua auto sa cosa hai guardato in TV e il tuo frigo sa cosa ordinare in base alla tua dieta. Tuttavia, il rischio di sicurezza e privacy scala esponenzialmente. Un “cervello unico” crea un single point of failure: se il profilo utente centrale viene compromesso, l’attaccante non ha accesso solo a un dispositivo, ma all’intera mappa comportamentale della persona. Inoltre, la ridondanza cognitiva viene meno; se l’AI centrale ha un’allucinazione o un bias, questo errore si propaga su ogni schermo e interfaccia della vita dell’utente, senza sistemi di controllo alternativi.
Si parla di accordi, revenue sharing e pressioni antitrust: quanto contano oggi contratti e partnership rispetto all’innovazione pura? E che ruolo avranno regolatori USA ed europei nei prossimi mesi?
Mai come oggi l’innovazione pura è subordinata alla strategia legale e commerciale. Gli accordi di revenue sharing e le partnership contano oggi più della singola novità tecnica, perché determinano chi ha accesso alla base utenti. Le pressioni antitrust negli USA e le regolamentazioni come l’AI Act in Europa stanno forzando le Big Tech a muoversi con cautela, cercando di evitare l’integrazione verticale totale che attirerebbe sanzioni. I regolatori avranno un ruolo cruciale nei prossimi mesi nel definire se queste alleanze (es. Microsoft/OpenAI o Google/Samsung) costituiscano cartelli che soffocano la concorrenza. È probabile che vedremo un rallentamento nel rilascio di alcune funzioni in Europa proprio per timori di non conformità, creando un web a due velocità.
OpenAI e Meta inseguono nuovi dispositivi e interfacce (occhiali, assistant “always-on”): lo smartphone è destinato a essere sostituito o resterà la “porta principale” dell’AI ancora a lungo?
Nonostante gli sforzi di Meta con gli occhiali Ray-Ban o le ambizioni di OpenAI verso nuovi hardware dedicati, lo smartphone rimarrà la “porta principale” ancora a lungo, principalmente per una questione di “banda passante” e privacy. Gli occhiali sono eccellenti per interazioni brevi e vocali, ma mancano della densità informativa e della complessità di un telefono. Non possiamo dettare tutto in pubblico, né possiamo consumare contenuti complessi visivamente su lenti trasparenti con la stessa fedeltà di un display Oled. È molto più probabile che lo smartphone diventi un “hub di calcolo” che alimenta questi accessori periferici, mantenendo il suo ruolo centrale come custode della connettività, della potenza di elaborazione e, soprattutto, dell’interfaccia privata dell’utente.
Un tema del CES 2026 è quello degli umanoidi. Quale futuro ci aspetta?
La presenza scenica degli umanoidi domestici al CES è massiccia, ma c’è una distinzione fondamentale da fare tra il marketing e l’effettiva capacità operativa. Quello che vediamo è un tentativo delle aziende di “colonizzare” il salotto sfruttando l’onda dell’AI generativa, che permette a questi robot di conversare fluidamente e simulare empatia, mascherando però il fatto che le loro capacità motorie fini sono ancora limitate. La maggior parte non sono i “maggiordomi tuttofare” che lavano i piatti o rifanno i letti velocemente, ma si propongono principalmente come compagni sociali, educatori per bambini o assistenti per il monitoraggio degli anziani. Il loro valore aggiunto attuale non è la forza lavoro, ma la presenza; le aziende stanno scommettendo sul fatto che saremo disposti a comprare questi dispositivi per la compagnia e la sicurezza che offrono, accettando che per ora siano piuttosto goffi e lenti nelle faccende manuali. È lecito immaginare che i robot entreranno in casa prima come “amici intelligenti” e solo tra diversi anni come veri lavoratori domestici.