這篇文章是根據MIT 科學家Lex Fridman 的自動駕駛講座的部分內容而寫成的,
主要來介紹一下目前全自動駕駛所用到的各種感應器其優點與缺點。
https://i.imgur.com/BMK347H.png
目前全自動駕駛的發展大致上有兩種方案,一是視覺辨識加上深度學習,第二種
則是光達(Lidar)加上高精度地圖。另外這兩種方案都還是會用上例如雷達、超
音波雷達等感應器。
‧視覺辨識加深度學習方案
‧優點:
‧擁有最高解析度的資訊
‧大規模搜集資料與深度學習的可行性高
‧道路原先就是設計給人類的視覺使用
‧便宜
‧缺點:
‧不精確(如果沒有大量數據的話)
‧(深度學習)不可解釋、不一致
‧光達加高精度地圖方案:
‧優點:
‧可解釋、一致
‧精確
‧缺點:
‧不會隨時間經過而改善
‧(光達、製作高精度地圖)貴
而這兩套方案所用的感應器,例如雷達(Radar)、光達(Lidar)、相機(Camera)、
超音波雷達(Ultrasonic)等特性也不同以下介紹這些感應器的主要特點:
https://i.imgur.com/1u0oLqF.png
‧雷達:便宜、在極端天氣下工作狀況良好,但解析度低,是最常被用來檢測
及追蹤物體的感應器。
https://i.imgur.com/sYqLYwX.png
‧光達:造價貴,對於檢測深度(與物體之間的距離)極度精確,解析度要比雷達
來的高,擁有360度的可視範圍。
https://i.imgur.com/SsFAyU4.png
‧相機:便宜,有著高解析度,可蒐集巨量數據做為深度學習之用,但對於深度
的估計很差,在極端天氣下的工作狀況也不好。
下面這四張圖則是代表了這些感應器在各種光線與天氣條件之下其感應距離與靈
敏度的變化:
https://i.imgur.com/e4sOogJ.png
https://i.imgur.com/ZLtYiC6.png
而若是以
Proximity detection (接近or距離檢測)
Range (範圍)
Resolution (解析度)
Works in dark (黑暗中工作狀況)
Works in bright (明亮時工作狀況)
Works in snow/rain/fog (在雪/雨/霧中的工作狀況)
Provide colour/contrast (提供色彩/對比資訊)
Detects speed (檢測速度)
Sensor size (感應器體積)
Sensor cost (感應器成本)
這幾項做為指標的話,那各種感應器的表現如下:
光達:
https://i.imgur.com/lpv5ZWT.png
超音波雷達:
https://i.imgur.com/O4OsAFV.png
雷達:
https://i.imgur.com/oqo3O5p.png
相機(被動視覺):
https://i.imgur.com/u4ovri8.png
而在使用視覺辨識加上深度學習的這一項方案中,感應器融合是不可少的,將
相機、雷達、超音波雷達這三種感應器加起來可以得到以下的結果:
https://i.imgur.com/S6WX5GZ.png
而這正是Tesla 目前所使用的方案,拿來與光達方案做比較的話,可以發現這兩
種方案有以下特點:
https://i.imgur.com/1QlIhU7.png
可以發現,"相機 + 超音波雷達 + 雷達" 這些傳感器融合後就能媲美光達,而
光達不能獲取色彩/對比數據,最終同樣要加上相機,然後解決視覺辨識問題。
也就是說一但解決了視覺辨識問題,那麼只要"相機 + 超音波雷達 + 雷達"就能
覆蓋所有感應器所需要解決的事情。這也是Elon Musk 會說全自動駕駛不需要光
達的原因;至於要如何解決視覺辨識問題?那就透過深度學習來解決,而深度學
習所需要的大量數據則透過目前已經安裝在幾十萬輛Tesla 上的感應器來蒐集。
講座影片:(此篇文章用到的內容從41:55 開始)
https://youtu.be/sRxaMDDMWQQ?t=2515
講座ppt 下載:
http://bit.ly/2H0Htiz
Dr. Lex Fridman 個人網站:
https://lexfridman.com/