Per anni è stato raccontato come la grande vetrina dell’elettronica di consumo, il luogo dove televisori, chip e gadget si davano appuntamento per anticipare il futuro; oggi, però, il CES di Las Vegas ha cambiato pelle in modo evidente, diventando uno dei termometri più attendibili per capire dove sta andando la mobilità globale, spesso prima ancora dei saloni dell’auto tradizionali. Al CES 2026 il baricentro si sposta definitivamente dalla lamiera al codice, dai cavalli ai calcoli, con software, intelligenza artificiale, ADAS e connettività che si impongono come il vero “motore” dell’industria automotive. Non è più solo una questione di design o di powertrain, ma di architetture digitali, piattaforme centralizzate, assistenti intelligenti e sistemi capaci di evolvere nel tempo, proprio come uno smartphone.
È per questo che il CES è diventato un appuntamento chiave anche per chi racconta l’auto (per alcuni brand è anche più importante di molti saloni che si svolgono durante l’anno), non tanto per scoprire il prossimo modello, quanto per leggere in anticipo le traiettorie tecnologiche che influenzeranno produzione, utilizzo e servizi legati alla mobilità. In questo senso, Las Vegas funziona come una sorta di laboratorio a cielo aperto, dove costruttori, fornitori di chip e big tech mostrano come immaginano l’auto che verrà, spesso più come piattaforma intelligente che come semplice mezzo di trasporto.
Il filo conduttore di questa edizione è chiaro: più intelligenza distribuita, più integrazione tra mondi diversi e meno effetti speciali fini a se stessi. Il CES 2026 racconta un settore che cerca concretezza, applicazioni reali e modelli sostenibili, segnando un passaggio culturale profondo: l’auto del futuro si definisce sempre meno per ciò che è fatta e sempre più per ciò che sa fare e gli annunci fatti a Las Vegas da parte di Ford, Arm e Hyundai ne sono l’esempio.
Ford, l’intelligenza artificiale diventa concreta
Per Ford il CES 2026 segnala un ritorno alla concretezza, con l’intelligenza artificiale usata come leva pratica e non come slogan, e infatti l’annuncio più immediato riguarda un assistente vocale evoluto che arriverà prima sulle app Ford e Lincoln e poi direttamente a bordo, capace di capire il contesto reale dell’auto e del conducente. Un po’ come avere un meccanico e un copilota digitale sempre in tasca, che sa che mezzo si sta guidando, che allestimento monta e quanto spazio c’è davvero nel bagagliaio, così da rispondere in modo sensato a domande quotidiane, mentre sullo sfondo c’è una scelta precisa, raccontata anche da Doug Field, di sviluppare in casa buona parte di software ed elettronica per tenere sotto controllo costi e complessità, senza inseguire la corsa muscolare ai chip più potenti ma puntando a un equilibrio più furbo tra prestazioni, dimensioni e prezzo finale.
Lo stesso approccio si ritrova nella strategia sulla guida assistita, dove Ford continua a spingere su BlueCruise e promette per il 2028 un sistema di guida autonoma di Livello 3 con possibilità di togliere gli occhi dalla strada in situazioni specifiche. Il tutto basato su una nuova piattaforma elettrica universale e su un “cervello” centrale che unifica infotainment, ADAS e comandi vocali, riducendo i costi di circa il 30% e rendendo queste tecnologie accessibili anche su modelli più abbordabili, non solo su auto di livello premium. Mentre sul fronte AI Ford resta volutamente agnostica, pronta a integrare soluzioni come Google Gemini ma senza legarsi mani e piedi a un solo modello ma espandendo la possibilità a quante più gamme possibili.
Arm scommette su robotica e automotive con “Physical AI”
Durante il CES 2026, Arm Holdings ha annunciato la nascita di una nuova divisione chiamata “Physical AI”, pensata per ampliare la sua presenza nel mercato della robotica e, indirettamente, in quello automotive. Ora, può sembrare una di quelle sigle tecnologiche che si sentono spesso ma non si capiscono fino in fondo, però dietro a questo nome c’è un ragionamento interessante: secondo Arm, la robotica e l’intelligenza artificiale che si muovono nel mondo reale, che va oltre i chip nei telefoni o nei computer. In pratica, il nuovo team non si occuperà solo di chip e licenze, ma cercherà di coordinare tutte le tecnologie che servono perché un robot, o una macchina dotata di sensori e AI avanzata, possa davvero “capire” l’ambiente e interagire con esso.
Dal punto di vista dell’auto, questo è affascinante perché sempre più costruttori e fornitori vedono l’AI fisica come qualcosa che va oltre l’autonomia di guida: può servire nelle fabbriche per produrre veicoli, in magazzini per smistare componenti e, chissà, persino nei garage per aiutare con carichi e manutenzioni. La mossa di Arm arriva in un momento in cui la robotica umanoide è una delle grandi attrazioni del CES e quando aziende come Hyundai Motor Group stanno pensando di usare robot insieme agli umani nelle linee di produzione entro il 2028. Insomma, se fino a ieri si parlava di auto intelligenti che guidano da sole, oggi si parla sempre più di macchine e robot che pensano e agiscono in tandem con le persone, e Arm con la sua “Physical AI” vuole essere uno dei pilastri di questo cambiamento.
Hyundai ridisegna la mobilità grazie alla robotica AI “human-centered”
Al CES 2026 Hyundai Motor Group non ha parlato semplicemente di nuove auto o di tecnologie da integrare a bordo, ma ha messo sul tavolo una visione molto più ampia, quasi sistemica, in cui l’intelligenza artificiale e la robotica diventano il filo conduttore di tutto l’ecosistema della mobilità, dalla fabbrica fino ai servizi post-vendita, e il concetto chiave è quello di “human-centered robotics”: Nello specifico, una robotica pensata per affiancare le persone e non per sostituirle, con una roadmap chiara che unisce produzione, logistica, assistenza e interazione quotidiana, perché secondo Hyundai l’AI non deve limitarsi a rendere più efficiente una catena di montaggio, ma deve migliorare il modo in cui le persone lavorano, si muovono e utilizzano i servizi legati all’auto, un approccio che sembra quasi voler riportare la tecnologia con i piedi per terra, lontano dagli annunci roboanti e più vicino alla vita reale.
Il legame con l’automotive, anche se indiretto, è in realtà enorme, perché quando Hyundai parla di robot collaborativi, di intelligenza artificiale distribuita e di piattaforme condivise, sta descrivendo un futuro in cui l’auto non è più un oggetto isolato ma parte di un ecosistema intelligente, che inizia nella fabbrica “robotizzata”, passa per la consegna e la manutenzione, e arriva fino all’assistenza al cliente, magari con robot in grado di supportare persone con mobilità ridotta o di gestire servizi personalizzati. Non è un caso che in questo disegno rientrino realtà come Boston Dynamics, già nel perimetro del gruppo, perché l’idea è quella di creare nuove opportunità di business che nascono dall’incontro tra mobilità, AI e robotica, trasformando l’auto in un nodo intelligente di una rete più ampia, dove tecnologia e servizi si fondono e il valore non è più solo nel veicolo, ma in tutto ciò che gli ruota attorno.