1.運算資源龐大 2.計算距離精度還是不如光達&雷達3.VSLAM誤差模型複雜 4.深度學習無法做到100%成功接4,所以目前還是需要另一套系統(ex:光達或4D雷達)沒有喔 成本反而是鏡頭便宜 雖然光達也降超多了犯低級錯誤的問題就出在"感知"上AI不如人類你是不知道光達成本降多少了嗎XD純靠視覺+深度學習方案沒辦法保證100%成功,又不用其他方案,不就祈禱視覺都不能失效(犯錯)車用的你拿半導體來比.....天啊人家主流玩法就是光達+視覺+雷達三者都用互相彌補啊所以其他自駕團隊都是用多感傳器(光達視覺都用啊)沒人叫你擇一啊 截長補短不行? 別套當冗餘設計不行?最好是.....看看nuscenes資料庫數據種類好嘛
https://youtu.be/C6KbbndonGg一個技術不可行的 擔心人家技術可行的沒錢完成XD要嘛有把握視覺做到99.999% 要嘛別的方案redundancy視覺靠深度學習喔 把深度學習當萬靈丹XD
https://youtu.be/Yc4MfzbbtuI謠傳是用Arbe的4D雷達啦,Musk就討厭光達了啊不是很多白色車看得到就夠了捏 要實用商用化是要99.999%都能成功辨識欸 畢竟只靠單一方案講雷達的,你知道目前的車用雷達包含Tesla使用的都選擇不輸出靜止量測數據嗎.....我講雷達你講視覺,那萬一靜止物視覺沒法正確感知呢.....別的方案是?R止物只能純靠視覺,是覺得都能成功萬無一失喔跟車輛安全相關是靠視覺+深度學習單一方案做到100%安全? 不用有其他方案來避免失效雷達不會輸出靜止物量測資訊啊,遇到靜止物視覺又沒法辨識怎麼辦?現在車用的雷達就不具備高度資訊,你不把靜止物濾掉是想感測到號誌還是立牌就誤作動喔,問這種問題.....不然幹嘛爭相研發4D雷達