在NVIDIA GTC 2025上,理想汽車發(fā)布下一代自動駕駛架構(gòu)MindVLA,該架構(gòu)通過自研的VLA模型,將汽車轉(zhuǎn)變?yōu)榫邆漕愃迫祟愓J(rèn)知和適應(yīng)能力的“貼心專職司機(jī)”,為用戶帶來全新的產(chǎn)品體驗(yàn)。
MindVLA是一個視覺-語言-行為大模型,整合了空間智能、語言智能和行為智能。它能夠讓車輛“聽得懂”用戶的語音指令,自主調(diào)整路線和行為,例如在沒有導(dǎo)航的情況下找到目的地或根據(jù)用戶反饋調(diào)整駕駛速度;“看得見”周圍環(huán)境,識別商店招牌并根據(jù)用戶發(fā)送的照片找到位置;“找得到”車位或目的地,利用空間推理能力在復(fù)雜場景中自主漫游和停車。這些功能均不依賴傳統(tǒng)地圖或?qū)Ш叫畔ⅲ峭ㄟ^模型的空間理解和邏輯推理能力實(shí)現(xiàn)。理想汽車CEO李想表示,MindVLA將重新定義自動駕駛,就如同iPhone 4重新定義手機(jī)一樣。MindVLA 也是一個視覺-語言-行為大模型,但我們更愿意將其稱為‘機(jī)器人大模型’,它將空間智能、語言智能和行為智能統(tǒng)一在一個模型里,讓自動駕駛擁有感知、思考和適應(yīng)環(huán)境的能力,是通往 L4 路上最重要的一步。