電子方案開發供應鏈平台
一鍵發布任務
獲取驗證碼
返回

發布成功


讚賞作者

讚賞金額:

  • ¥2
  • ¥5
  • ¥10
  • ¥50
  • ¥100
  • ¥200

您輸入的金額有誤,請重新輸入

支付金額:5

支付方式:

微信支付

讚賞成功!
你的讚賞是對作者最大的肯定~?

當前位置 : 首頁 > 方案訊 > 方案訊詳情
自動駕駛,不說技術,說決策邏輯
發布時間:2023-01-13 閱讀量:2837 來源:必威官方网站手机網 作者:必威官方网站手机網

提到智能車,大家都不會(hui) 陌生,智能車是一個(ge) 集環境感知、規劃決(jue) 策、多等級輔助駕駛等功能於(yu) 一體(ti) 的綜合係統,它集中運用了計算機、現代傳(chuan) 感、信息融合、通訊、人工智能及自動控製等技術,是典型的高新技術綜合體(ti) ,自動駕駛便與(yu) 之有著異曲同工之妙。自動駕駛的核心技術,有的人認為(wei) 是感知、有的人認為(wei) 是決(jue) 策,有的人認為(wei) 是非技術的東(dong) 西,比如能否持續賺到錢、能否做好前瞻性的管理工作等等。本期文

章就知乎上的幾位答主的觀點,來看自動駕駛技術的核心。



1673579528691620.jpg


小鵬、特斯拉、蔚來“聰穎“不一


在對Model 3、小鵬P7、蔚來ES6的自動駕駛功能進行測試時,其中一項是對雪糕筒的識別和反饋卻截然不同:

小鵬:直接衝(chong) 過去。

特斯拉:變道躲避。

蔚來:提示駕駛員接管車輛,自動刹車,同時打開雙閃。


1673579603376360.jpg

1673579620112920.jpg

1673579641675988.jpg


當時測試的車輛速度是40-50km/h,理論上來說,以三台車當前的硬件能力,不可能識別不到前方樁桶,最終不同的表現其實代表的就是三台車不同的決(jue) 策邏輯,來聽下三台車的內(nei) 心獨白:


小鵬P7:前方有樁桶?這是施工路段呐,理論上這屬於(yu) 駕駛員自己接管的範圍,主動介入有可能造成危險,萬(wan) 一出了事責任也很難劃分清楚吧?算了,還是維持當前操作!

特斯拉:前方有障礙物?哈哈,大顯身手的機會(hui) 來了!看我的,變道避障!

蔚來:前方有障礙物?可能有危險吧?不行不行,趕緊刹車降速,同步告知駕駛員和周圍車輛,小心!有危險啊!


自動駕駛技術的核心還是決(jue) 策


自動駕駛技術的核心實際上還是決(jue) 策。過去幾年由於(yu) 視覺感知的不穩定,自動駕駛的發展受到了極大的製約,因此很多人都認為(wei) 環境感知才是自動駕駛技術的核心。但隨著環境感知的硬件越來越好,底層控製係統越來越精準,智能決(jue) 策的重要性越來越關(guan) 鍵。


如果自動駕駛類比人開車,那麽(me) 感知就類似於(yu) 人的眼耳,獲取汽車周邊的環境信息,而手腳則是偏執行層的控製。那麽(me) 自動駕駛的核心就應該更偏向腦部的功能——決(jue) 策。


1673579745389069.jpg


過去往往都在吐槽mobilesye的攝像頭或者哪家的雷達不行(眼神不太好),譬如車道線無法準確識別,靜止車輛在遠距離識別不到,這個(ge) 目標又丟(diu) 了,然後再加一堆的邏輯去解決(jue) 這些參數異常跳動或者目標無法準確識別、丟(diu) 失等問題。除此之外還需對執行層進行調試,譬如這個(ge) EPS死區有點大,這個(ge) 車輛製動響應不太好(可以理解為(wei) 手腳不太好使)。但隨著供應商以及自研技術的提升,這樣的場景越來越少了,無車道線場景也可以給出安全行駛的邊界了,大家也有更多的精力去打磨決(jue) 策相關(guan) 的內(nei) 容了,在學會(hui) 走路的基礎之上,研究如何的跑的更快,跑的更優(you) 雅了。


決(jue) 策邏輯評價(jia) 體(ti) 係攸關(guan) 重要


能不能

比如,想識別所有的障礙物,但是你能枚舉(ju) 出所有的障礙物來測試嗎?大千世界,無奇不有,顯然是不能枚舉(ju) 完的。所以,那些沒測過的障礙物,風險怎麽(me) 評估呢?你敢在產(chan) 品放行文件上簽字嗎?


仿真能大大提高測試的覆蓋度,那麽(me) 仿真和實際的偏差,怎麽(me) 評估呢?仿真能識別了,實際就能嗎?


1673579854437128.jpg


簡單來說就是幾個(ge) 問題,第一,你知道你能識別什麽(me) ,但是你知道你不能識別什麽(me) 嘛?第二,如果你知道不能識別,那你能及時報警讓駕駛員接管嗎?第三,如果沒接管,你能及時執行最小風險策略嗎?這些需要一套體(ti) 係來管理和評價(jia) 。


SOTIF能解決(jue) 不少問題,但是SOTIF,有幾個(ge) 公司能完全用起來呢。更別說SOTIF解決(jue) 不了的問題了。


可不可靠

之前是一些模糊邊界的問題。那麽(me) 對於(yu) 已經定義(yi) 清楚的功能,怎麽(me) 保證可靠性呢?


功能安全裏有個(ge) 安全目標的概念,簡單說就是對於(yu) 影響安全的事件(比如製動失效),有一套體(ti) 係來保證相關(guan) 的功能是可靠的。這裏就引出了最常用的提高可靠性的方法---冗餘(yu) 。


冗餘(yu) 在傳(chuan) 統的車輛上很常見,比如扭矩計算,比如製動執行機構的冗餘(yu) 。但是對於(yu) 自動駕駛的一些問題,比如基於(yu) AI的感知,目前還不好做。


1673579923294648.jpg


因此,沒法直接套用功能安全的體(ti) 係,來保證已經定義(yi) 並實施的功能,是‘可靠’的。那怎麽(me) 辦呢?可以結合數據閉環來debug。但有個(ge) 問題是,數據閉環是滯後的。就算用測試車,測試車的數據在數量和test case的覆蓋度是比較局限的。OK,所以還要結合仿真,所以老問題又來了,仿真測試能過,路測就可以嗎?偏差怎麽(me) 評估呢?


這就是一係列如何評價(jia) 可靠性的問題。不是對自動駕駛悲觀,隻是覺得要正視問題,避免盲目自信。也許以後有更好的體(ti) 係來支撐自動駕駛的開發,但是歸納起來一句話---都需要時間。但是不希望有車企用激進的方式,像特斯拉那樣用消費者來做測試,加速這個(ge) 進步。


文章評論

您需要登錄才可以對文章進行評論。

沒有賬號?立即注冊(ce)

最新活動
意見反饋
取消