Re: [分享] 特斯拉FSD beta 來比眼力有沒有比AI好

作者: StarburyX   2021-04-08 23:15:10
關於對車輛周遭環境的判別討論還不錯,
但是自動駕駛的進步還有一個關鍵就是駕駛行為,
何時該轉彎?如何轉彎?路口可以往前嚕一點再轉嗎?等等
參考影片:https://youtu.be/uClWlVCwHsI 
(看看特斯拉如何處理越過多線道左轉)
這也是特斯拉跟其他公司有優勢的地方,
就是在電腦駕駛時,人為干預產生時的數據,
為何人類駕駛會在這個環境下干預電腦?
特斯拉會把干預當下八顆鏡頭的影像傳回伺服器,
收集並做為訓練AI的數據庫,
這個需要很多人類駕駛才能做出來的資料,非常非常的有價值,
當然FSD beta還是有很大的進步空間,
但是已經很令人興奮了
※ 引述《ykjiang (York)》之銘言:
: 從最基本的原理來說,光達跟雷達就是用來測距,理論上只有一維的資訊
: 三維的部分是經過一些設計、運算後得到的
: 反而攝像頭一開始就是二維資訊,然後可以經過運算得到三維的資訊,特
: 斯拉更進一步從中取得四維資訊(多的那維是時間軌跡預測)
: 以目前的技術:
: 距離方面,光達的精度比較高
: 平面部分,攝像頭的精度較高,然後攝像頭還可以判斷顏色這個重要資訊
: 以自動駕駛而言,兩者的精度都超過人眼了
: 所以關鍵還是在 AI 等其他方面
: ※ 引述《airforce1101 (我不宅)》之銘言:
: : 影像、雷達、光達不太一樣,我把影像與雷達、光達拆成兩類好了,影像對於訊號處理來
: : 說屬於二維陣列,但是雷達與光達可以帶回三維的目標資訊,雷達就是低頻段的光,因頻
: : 率特性不同,所以適用場景不同,光達的脈衝時間很短,所以較於雷達相比,對於相同目
: : 標,可以帶回更高精度的資訊。
: : 光達的領域上有關延展性目標,可以參考K. Granstrom, M. Baum, and S. Reuter 所著
: : 的這篇文章 Extended object tracking: Introduction, overview, and application.
: : 在AI輔助下,或許環境良好下影像能做到光達能大多數能做的事,但某些判斷影像與光達
: : 先天上的差距還是存在。
: : 其實也好奇,傳感器與影像間的關聯是否讓AI找出並學習其特徵向量,有待高手解答了。

Links booklink

Contact Us: admin [ a t ] ucptt.com