Re: [新聞] 美監管機構調查:特斯拉自駕系統存在「

作者: Arim (象山下智久)   2024-04-28 11:07:48
※ 引述《Sixigma (六西格瑪)》之銘言:
: 好了啦 cost down 星人
: 都 2024 年了還不承認純視覺不足以滿足自駕功能
: 明明所有的電腦視覺的論文和資料集和 benchmark
: 無論在 3D Object Detection 或是 Planning 都是融合方案屌打
: 前者有用 Lidar 和沒用, mAP 差到 30 都是家常便飯
: paperswithcode 隨便看都是
: https://paperswithcode.com/task/3d-object-detection
: 不要說光達啦
: 光是用雷達多個 10 mAP 都正常
: 你知道差 10 mAP 是什麼意思嗎
: 大概是 300 度近視和 800 度的概念吧
: 還不用說你還可以直接 hard code 寫死
: 單相機的物理特性怎麼可能玩得過雷達光達
: 沒上融合模型之前竟然有人敢吹端到端
: 笑死
: 懂得就懂啦
: 就算算上模擬技術,就是像 Omniverse 那種
: 光達訊號顯然也可以模擬啊
: 甚至可能比相機訊號簡單多了
: cost down 星人的第一性原理根本就過譽
: 別說什麼你開車需要光達嗎這種邏輯死亡的謬論
: 開車需要眼睛和大腦,他媽的這些東西是眼睛和大腦嗎
: OpenAI 都不敢說的話他怎麼敢說
: 除非他出來說我們的研究是純視覺屌虐融合方案
: 說什麼不需要光達或是多餘,那就是 cost down 的屁話啦
: 2020 年講這種屁話大家都還沒反應過來
: 現在一堆人搞 nuScenes Waymo KITTI 都不知道搞幾輪了
: 夢也該醒了
: 坐等特斯拉被中國車廠的屌虐
: 啊
: 已經被屌虐啦
: 那沒事啦
其實我覺得純視覺是有可能做到 LV4 的,只是馬投顧放話的當下還沒有 gpt-4v 出來而已,你可以說他放話的當下是在打嘴砲沒錯,但我覺得未來肯定有機會,github 上已經有人用 gpt 去微調自駕需要的參數
現在大型視覺模型已經可以解釋當下發生了什麼,看到了什麼
老黃也說過通用 AGI 最快在五年內一定能實現,現在就是算力跟不上人類即時的反應速度而已,但那是現在,算力這種東西每年都是在增長
我覺得 AGI 問世的那天就是特斯拉自駕噴發的那天,但就是算力一定要跟上,不然等模型反應過來的時侯就撞車了
然後特斯拉現在應該是沒用 gpt 而是用更古早的 CNN,就已經能作到這樣我已經覺得很猛了好嗎?最近就有新聞說最新的 FSD 可以直接把富豪載到醫院了
然後 gpt-5 最快今年就要出來了,你覺得靠純視覺做到自駕還遠嗎?剩下的就是算力問題要克服而已
股點就是做鏟子的永遠都是贏家,gg 甚至比 nv 更好,因為 ai 晶片霸主可能會換,但代做鏟子的 gg 應該很難下來了
作者: chandler0227 (錢德勒)   2024-04-28 11:40:00
並不是只要事故率(MTBF)低於人類駕駛就足矣,還要考慮到當系統失效時的功能安全、預期功能安全,這些都是取得政府核發自駕牌照需具備的項目,而現行硬體架構(感測單一&HW4.0用單一power rail),在沒有冗餘下過不了政府核發自駕牌照這關我在談自駕系統要有backup政府才有機會放行核發自駕牌照這件事,樓上刻意歪樓解讀成政府支持事故率高的人類,我也沒辦法

Links booklink

Contact Us: admin [ a t ] ucptt.com