當前位置: 華文頭條 > 推薦

使用 Trajeglish 幫助自動駕駛汽車學習人類駕駛行為語言

2023-12-31推薦

駕駛員之間的溝通常常遠超於轉向燈和剎車燈的使用,很多情況下都依賴於人與人之間的交流,而並非汽車技術,比如,示意另一輛車繼續前行,觀察另一位駕駛員是否註意到了自己,友好地向對面的車揮手等。

在不久的將來,自動駕駛汽車(AV)必將與人類駕駛員共存,因此它們需要能夠理解這種行為,才能做出不阻礙交通的安全決策。

為了在訓練中解決這一挑戰,開發者必須能夠預測其他車輛的未來運動會如何受到自動駕駛汽車行動的影響。NVIDIA Research 團隊在最近發表的一篇論文中介紹了一種交通建模方法——Trajeglish,其能夠以語言模型對單詞和短語進行分詞的方式,來對車輛運動進行分詞化處理,以此實作逼真的多車輛駕駛場景仿真。

在Waymo仿真智慧體挑戰賽(Waymo Sim Agents Challenge)的第一輪(V0)中,與其他 16 個交通模型相比,使用這種分詞化處理方法生成的交通軌跡最為逼真,比之前最先進的模型高出 3.3%。

如同語言模型將段落分解成單詞和短語一樣,Trajeglish 透過將每個場景分解成詞元(tokens)來模擬多智慧體交通場景。這種方法可以考慮每個智慧體和軌跡之間的相互關系,並根據它們的初始位置對運動進行預測,以涵蓋所有可能發生的互動。

圖 1. Trajeglish 僅根據行車日誌的初始時間步而建模的場景,黑色標記處用於提示模型的初始狀態。

在只有現實場景初始時間步的情況下,Trajeglish 也能嚴格按照日誌數據,真實仿真其他車輛如何對自動駕駛汽車的行動做出反應。

模擬人類行為

在單車道高速公路場景中,模擬人類的駕駛行為相對簡單,因為在此類場景中很少有交叉路口、物體或行人。

但在城市環境中,由於交通流量和道路種類的增加,模擬多輛車的難度要大得多。為了建立適用於更廣泛場景的交通模型,近期的方法都在追求模仿行車日誌中所觀察到的駕駛行為。

為了在仿真中做到這一點,需要對一個智慧體在每個時間步中的實際行動進行采樣,所采樣的行動必須符合「時間步內依賴關系」,即對應所有其他智慧體在該時間步所選擇的行動。

現實世界中的各行為主體都具有獨立的行為,但在交通模型中,由於行車日誌是在不連續的時間戳上記錄的,時間步之間的任何互動都會表現為協作行為,這使得時間步內依賴關系變得十分必要。通常不會記錄在日誌數據中的互動,如眼神接觸或轉向燈等,也會使記錄場景中的行為主體之間產生協作。

Trajeglish 需要清楚地模擬這種時間步內依賴關系。為此,Trajeglish 采用與語言模型相同的方式對給定場景進行分詞化處理,使模型能夠根據場景情境只預測可能的軌跡或詞元。然後,Trajeglish 透過分析所有被分詞化處理的場景的分布,模擬該時間步中的下一步行動。

圖 2. Trajeglish 透過不斷叠代地找到與下一狀態角距離最小的詞元來對軌跡進行分詞化處理。

這個預測下一個詞元的過程會不斷重復。在對一定數量的詞元進行采樣後,Trajeglish 就能掌握足夠的上下文,對各種長度和任意數量智慧體的場景進行預測。

領先方法

Trajeglish 與 Waymo 仿真智慧體挑戰賽 V0 排行榜上的其他 16 個模型進行了比較,每個模型的任務是根據 1 秒鐘的初始駕駛資訊,為最多 128 個智慧體同時對 32 個場景一致的軌跡進行仿真。

該挑戰賽根據分布匹配度來評估每個仿真的真實性,計算出這些仿真場景的若幹統計數據,並與在記錄場景中計算出的這些統計數據進行比較。數據越接近,得分就越高。

根據 Waymo 的參數,作為唯一使用分詞化處理方法的模型,Trajeglish 得出的結果最為真實。從品質上看,在智慧體互動密集的場景中,Trajeglish的效能遙遙領先,比如交通擁堵、並線場景和四向停車路口等。

Waymo 排行榜對每個模擬的三個方面進行評估,分別為運動學(如速度等)、互動或與最近車輛的距離,以及軌跡是否保持在可行駛區域內。整體逼真度為這些類別的加權平均值。

根據這些參數,Trajeglish 在場景整體逼真度方面比以前的最先進模型提高了 3.3%,在互動方面提高了9.9%。

圖 3. Trajeglish 與 Waymo 仿真智慧體挑戰賽其他參賽模型的成績對比(標有星號的是使用整合技術的參賽模型)

總結

人類的駕駛行為存在著很多細微差別,這給仿真再現工作帶來了巨大的挑戰。由於語言模型可以應對人類語言中相似的復雜性,因此透過借鑒語言模型,可以使這項任務變得更加容易。

這使得自動駕駛汽車的開發者可以在仿真中使用保真度更高的交通模型來加速訓練、測試和驗證。

更多資訊,請閱讀論文全文以及 Trajeglish: Learning the Language of Driving Scenarios 計畫頁面: https://research.nvidia.com/labs/toronto-ai/trajeglish/

了解更多

  • Trajeglish: Learning the Language of Driving Scenarios 計畫頁面
  • https://research.nvidia.com/labs/toronto-ai/trajeglish/
  • 適用於自動駕駛汽車的解決方案
  • https://www.nvidia.cn/self-driving-cars/