Nvidia e la guida autonoma. Al CES 2026 ecco le auto che pensano
Jensen Huang al CES 2026, presenta la piattaforma Alpamayo che introduce modelli AI capaci di ragionare per l’autonomia di livello 4
La guida autonoma ha fatto notevoli passi in avanti, ma l'ostacolo decisivo da superare resta la gestione degli scenari rari e imprevedibili, il cosiddetto long tail della guida. Situazioni limite, incidenti complessi, comportamenti inattesi di altri utenti della strada, condizioni ambientali estreme che continuano a rappresentare una sfida anche per i sistemi più avanzati.
Proprio su questo fronte Nvidia ha acceso i riflettori al CES di Las Vegas 2026, dove Jensen Huang, fondatore e CEO dell’azienda, ha presentato personalmente Alpamayo, una nuova famiglia di modelli di intelligenza artificiale, strumenti di simulazione e dataset aperti pensati per accelerare lo sviluppo di veicoli autonomi sicuri e scalabili.
Le auto ora "ragionano"
Alpamayo segna un cambio nell’architettura dei sistemi di guida autonoma. Invece di separare rigidamente percezione e pianificazione, introduce modelli Vision-Language-Action (VLA) basati sul ragionamento, capaci di comprendere relazioni di causa-effetto e di spiegare le decisioni prese. Un aspetto cruciale non solo per migliorare le prestazioni di guida, ma anche per aumentare trasparenza, fiducia e sicurezza: elementi chiave per l’adozione su larga scala.
Non a caso Huang ha parlato di un vero “ChatGPT moment” per la cosiddetta physical AI: il momento in cui le macchine iniziano davvero a comprendere, ragionare e agire nel mondo reale. Secondo Nvidia, i robotaxi e i veicoli autonomi di livello 4 saranno tra i primi a beneficiare concretamente di questo salto tecnologico.
Un ecosistema aperto per l’autonomia di nuova generazione
Alpamayo non è un singolo modello, ma un ecosistema aperto fondato su 3 pilastri.
Il primo è Alpamayo 1, il primo modello VLA con chain-of-thought reasoning progettato per la ricerca sulla guida autonoma. Con un’architettura da 10 miliardi di parametri, utilizza input video per generare traiettorie di guida accompagnate da tracce di ragionamento, rendendo esplicita la logica dietro ogni manovra. Il modello è rilasciato in open source su Hugging Face e può essere adattato o distillato in versioni più leggere, pronte per l’integrazione negli stack di gida autonoma.
Toyota e-Palette 2025
Il secondo pilastro è AlpaSim, un ambiente di simulazione completamente open source che consente di riprodurre in modo realistico sensori, traffico e dinamiche di guida in ambienti chiusi e scalabili. La simulazione resta uno strumento chiave per validare algoritmi e policy prima della messa su strada.
A completare il pacchetto ci sono i Physical AI Open Datasets, uno dei più ampi set di dati aperti per la guida autonoma: oltre 1.700 ore di guida reale raccolte in un’ampia varietà di contesti geografici e condizioni operative, con un’attenzione specifica agli scenari rari e complessi.
Vedi tutte le notizie su CES di Las Vegas Il supporto dell’industria automotive
L’approccio di Nvidia ha già attirato l’interesse di attori chiave del settore. Lucid, Jaguar Land Rover e Uber, insieme con realtà accademiche come Berkeley DeepDrive, vedono in Alpamayo un acceleratore concreto per lo sviluppo di stack AV basati sul ragionamento e orientati all’autonomia di livello 4. L’apertura di modelli, strumenti e dataset viene considerata un elemento strategico per affrontare collettivamente le sfide più difficili della guida autonoma.
Fotogallery: Toyota e-Palette 2025
Consigliati per te
Jaguar: "Lavoriamo al secondo modello. E il rosa sulla Type 00..."
Ecco chi guiderà lo sviluppo delle nuove Lamborghini
Con lei cambia tutto. La prova dell'auto più criticata del web
Dealer automotive, bee2link punta su efficienza e marginalità
Jaguar preparava 4 nuove auto prima che la Type 00 le cancellasse
Citroen Ami Rip Curl: la serie speciale urbana in stile surf
Il designer di Jaguar Land Rover lascia ufficialmente l’azienda