作者:
zzahoward (Cheshire Cat)
2025-03-19 07:25:28※ 引述《leefengynh (/65G ・ 125/250K1W)》之銘言:
: 看起來是造假的
: https://imgur.com/5KHC7Ew
: https://imgur.com/RnPOd5C
: 撞車前一秒就把AP取消了 畫面中汽車旁邊兩條藍線消失 就代表AP已經取消了
: 目前還是找不出哪一家車廠的自動駕駛能趕上特斯拉fsd的
你說了一堆,其實你的理論根本沒搞清楚狀況
今天Mark Rober的實驗,就是故意去製造純視覺的障礙
他收了LiDar的贊助,就是要表現出純視覺的限制阿
你在那邊瞎扯一堆,但純視覺物理限制還是在那邊
我先問,AP的AEB功能跟FSD的資訊輸入源頭是不是都是攝影機?
那你怎麼覺得在同樣輸入源的情況,FSD能展現出與AP不同的天眼通?
還是你要說Tesla為了賣FSD沒把AP的AEB能力升級到天眼通的能力?
其實很多人把LiDar拿來當所謂的自動駕駛控制設備
但根本搞錯方向,LiDar只是其中一個訊號接收源而已,如同攝影機或雷達
FSD是在"攝影機"可視情況下透過類神經網路演算法達到高度自動駕駛控制
那你說FSD未來能不能整合LiDar? 廢話當然可以,甚至這樣組合的FSD一定更強
老實說我覺得FSD在面對一些極端環境應該就停下來或是關閉
Tesla為什麼不用LiDar? 因為成本考量阿
哪天LiDar價格下降會不會轉彎也不知道
事實上,Nvidia solution就是準備純視覺+LiDar以及各式各樣感測器的混合體
當然用得起老黃產品的車廠大概也都是豪華車等級 (Mercedes/Volvo/JLR之類的)
Tesla現在走的很前面沒錯,但老黃純視覺也不是吃素的
很多人看到Tesla就急急忙忙跳出來護航或跳出來嘲諷
根本沒搞清楚整件事情的本質和設備
你今天換成LiDar要你去辨識路標、顏色之類也是不可能
我也承認純視覺是邁入高階自駕的主力,但LiDar目前看起來是完成純自駕的最後防線
兩者本質上是可以互補的
不要因為Tesla想省成本就在那邊搞非A即B好嗎
不過這影片有問題的地方不在這裡其實這是一個很好證明LiDAR能在某些情況下有用的機會但是看起來Mark Rober搞砸了 造成只能當相罵本了至於路上有多少機會碰到這種scenario我覺得反而是其次就算路上碰不到 這也是個很好的POC案例
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 08:43:00不要不懂裝懂了啦會不會撞是由演算法決定的人類為什麼看得出那是塊板子ai就看不出來廢話一堆ai的智商是由演算決定的而fsd就是不會撞 所以他才不敢用fsd測試而ap也不會撞 所以他才故意關掉ap而aeb可以事前先關閉 所以aeb才沒發揮作用整件事就是他開車自己去撞的xdddd
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 08:48:00要講liadar多強先舉實際已經在路上跑的產品出來不要自己幻想 根本還沒出現在地球上的產品xdddd事實上就是lidar的自駕車已經在路上跑的去全部不如純視覺光達多強都是幻想出來的 xdxd實際產品都生不出來什麼nvidia說要合作做自駕車幾年了
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 08:50:00生出什麼屁了
er... Waymo就是LiDAR solution阿不過應該不是使用老黃的那套就是
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 08:53:00你的大腦視覺聯合區被打爛 你就算有視覺 你也判斷不出什麼鬼lol而視覺聯合區 在ai內就是所謂的演算法
我倒是覺得成本不是最大障礙 障礙在於LiDAR無法像純視
作者:
jinshun (jinshun)
2025-03-19 08:53:00特斯拉已經公開解釋好幾次為何不用Lidar了 包括發表會和法說會 甚至外資論壇 和省成本沒有關係
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 08:54:00waymo出包還不夠多嗎 居然有人敢舉waymo xddd搞了10年全美至今才709台車你們卻不知道他滿是問題lol
其實我覺得說省成本的可能是跟前保桿攝影機混為一談了那個就真的完全就是成本考量 XDWaymo出包規出包 但是它的確是運營中的LiDAR Solution
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 08:57:00這裡很多草包不知道waymo很弱xdddwaymo後台 人車比是1:2用1個人在開2台車你跟我說光達車有什麼好績效xdddwaymo的遠程接管比例多高
作者:
ppegg (Mania)
2025-03-19 08:57:00人的視覺就不包括lidar。如果是要類人駕駛靠純視覺+演算法
作者:
ppegg (Mania)
2025-03-19 08:58:00終究可以。多幾個攝影機或lidar則可以超越人類駕駛
他弱歸弱 但是的確是LiDAR Solution目前最遠的 而且說起來也至少要等Cybercub運營個一陣子再來比較吧
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 08:58:00waymo的安全性統計起來比全美人類司機還低 還光達勒
作者:
ppegg (Mania)
2025-03-19 09:00:00lidar不是人類的經驗,很難用人協助訓練吧
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 09:00:00每40萬英里就出現一次報警事故全美人類是70萬waymo搞了10年才勉強逼近40萬 最近幾年已經在40萬停滯不前光達車看waymo那個死樣子 極限就是那樣另外一家光達車 cruise已經退出市場了
可以合理預期Cybercab表現更好啦 但是先等看看吧
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 09:03:00cruise直接輾過人 你跟我說光達好棒棒xddd?waymo 你大概沒看過 載著乘客直接失控原地繞圈的新聞需要後台用1個人類 接管2台車而不是1個人類 管20台車就可以知道waymo 遇到很多場景走不動需要人類解圍的比率有多高了xddd如果waymo的自駕技術靠譜早就幾萬台遍佈全美了還會搞了幾百年才700台車?全美計程車+uber+lyft有100萬台你waymo玩了10年 700台 明眼人都知道技術遇到瓶頸了
作者:
timk7 2025-03-19 09:13:00先等特斯拉上線有實績再說吧,不然說誰一定強也沒結果
er..你是老頭嗎 一直重覆一些大家都知道的事 =_=a?
作者:
kira925 (1 2 3 4 疾風炭)
2025-03-19 09:15:00就是因為只有這水準 所以他只能一直洗一樣的吧
真的 特斯拉的AEB數據就是不如對岸光達車 但是FSD智駕能力又比對岸光達車強 懷疑是AEB沒加入AI演算因為特斯拉晚間AEB大概只能到7-80公里煞停 但是華為的可以到110
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 09:31:00「lidar成為最後一道防線」這就是光達派「靠感覺」所說出的一句話事實上lidar和鏡頭 很常發生矛盾的情況「矛盾傳感器」是不能讓你作為安全冗餘使用的一個傳感器判斷前面是硬物障礙物 要剎車一個傳感器判斷前面是氣體障礙物 要緩慢通過請問要聽誰的?用最高標準去把它當硬物煞車明明只是濃霧 你急煞被後車追撞嗎AEB可以請關掉那個人已經被證明造假既然是造假仔 那合理推斷就是會偷把aeb關掉aeb不是ai
你去看之前的實測影片 特斯拉AEB很多場景就是沒反應不然就是太晚 我自己本人也撞過
作者:
kira925 (1 2 3 4 疾風炭)
2025-03-19 09:35:00....可以確定某l一竅不通只會洗文了
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 09:37:00就一直以為「光達=超感官」真的笑死光達明明就某某些方面比人眼強但多數方面都比人眼還廢
作者:
kira925 (1 2 3 4 疾風炭)
2025-03-19 09:37:00航空器早就都有類似的實作 在那邊洗文
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 09:38:00你kira925先讀書再來吧 連光達的缺點是什麼都不知道就幻想超感官xddd
@l 我覺得跟光達無關 因為同樣有光達的車 AEB程度還是有差 我覺得是特斯拉AEB沒套好AI
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 09:39:00航空器用雷達居多 誰跟你用光達
作者:
kira925 (1 2 3 4 疾風炭)
2025-03-19 09:39:00那三個字只有你在寫
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 09:40:00航空跟開車一樣嗎天空又不像路面擁擠 開飛機就算都人眼都被雲層擋住也沒差講不出個屁 人就走了 xdddd那不如一開始就不要浮出來航空器裝光達 我聽過最好笑的笑話還是你雷達跟光達分不清楚xdd
作者:
kira925 (1 2 3 4 疾風炭)
2025-03-19 09:43:00冗餘度跟多數決 誰跟你在那邊分高低光達還是雷達根本不是重點
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 09:45:00光達 vs 純視覺 就只剩你們這群外行人一直在爭業界都在拼演算法了拿rule based時代的議題來爭 全部是韭菜你真的以為waymo或市面上的光達車他們裝光達 是為了冗餘嗎?他們裝光達 不是為了冗餘耶他們的感知層只會輸出一個結果而不是兩個結果既然只輸出一個結果 哪來冗餘之說胡説八道waymo會裝光達 只不過是要使用高精度地圖 有了高精度地圖那麼ai智商就不用這麼高也就是演算法的技術門檻就比較低可以快速商業化哪是為了安全冗餘 笑死
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 09:55:00但是惡果也馬上浮現就是司機成本只能降低50%1人管2台車 費用也比人工計程車還貴演算法低智商遇到一堆狀況需要後台人類解圍成本降不下來 沒在高精度地圖覆蓋區域無法駕駛xdddd偷吃步 難怪技術遇到瓶頸光達車就是沒高精度地圖覆蓋的區域 連正常的轉彎都沒辦法xddd這就是軌道車 不是靠車子臨場去解析道路的3D結構而是預先要輸入道路3D結構給汽車這根本危險 因為道路3D結構會一直改變那你就要每幾個禮拜重制一次地圖笑死 難怪只有700台 無法擴大到全美
不用管特鐵粉啦,煥新Y出來之前還不是講方向燈撥桿跟前鏡頭沒必要,最後自己被打臉,這些人都不會認錯的
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 10:05:00依賴高精度地圖的自駕絕對不是solution那只是軌道車 不叫自駕幾乎所有光達車都依賴預先輸入高精度地圖車子臨場對道路3d結構拓撲解析的能力很低這種做法非常危險 萬一遇到修路 道路結構改變 而你3d高精度地圖沒有即時更新車子直接車禍而且只能在固定區域才能自駕 xddd
其實多感測器就是能互相補足單一感測器在某些工況底下的限制,理論上就是裝越多越好,現在的問題是成本問題而已,就是這麼簡單的道理。但是特鐵粉不知道為什麼就是愛Diss特斯拉方案以外的其他東西,每個都好像是在幫馬斯克工作一樣。這些特鐵粉當初還嘲笑Toyota說會變成
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 10:07:00我沒講前鏡頭不重要啊
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 10:21:00傳感器越多越好 怎麼不去叫feijq裝光達? 笑死飛機只有雷達 沒有光達好危險 不去哭哭嗎xdddds
作者:
cabin2501 (-----------------------)
2025-03-19 10:23:00從教主 副教 現在又一個不要理會就好
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 10:23:00你們這群外行韭菜「靠感覺論述」到中毒了文組腦xddd
作者: carryton (Christopher) 2025-03-19 10:25:00
原文說AP被取消,FSD更不可能開啟你這篇連原文都誤解根本廢文一篇
作者: h311013 2025-03-19 10:58:00
純視覺無法穿透迷霧的,除非用的是熱成像或紅外線照射,特斯拉應該有裝這東西吧?
作者:
Arsen2017 (Arsen2017)
2025-03-19 10:59:00你才搞不清楚狀況 AP和FSD都沒開好嗎
在激動什麼 有光達加上相機的技術依定比只有單一技術好這有什麼好討論的?阿你多一項數據可以來分析咩現在不裝單純太貴 等國產的更捲一點就可以了飛機需不需要光達我不知道 但是沒理由多了一個3D資訊源會變更差的 樓上到底在吵啥
作者:
kira925 (1 2 3 4 疾風炭)
2025-03-19 11:13:00講攏餘度的意思是 飛機會有多重獨立的感測器系統同時作出獨立決定 然後會有多數決(可能是三重不同決策)而不是什麼AI怎樣 rule based怎樣 這是在那之前的東西在那邊炒光達雷達的字面吵架不知道在搞什麼...寫一堆情緒性文字 不知道哪來的狂粉
作者:
Arsen2017 (Arsen2017)
2025-03-19 11:51:00AEB是可以關的 影片都故意造假了你確定他沒關?
特斯拉粉絲就是這樣才會讓人對特斯拉觀感其差一對特斯拉有疑問就人身攻擊 無法正常討論車版不是你特粉一言堂的宣傳工具是不同意見討論的場所
作者:
gk1329 2025-03-19 12:14:00現在很多掃地機器人都在用 很便宜惹啊
作者:
Rukawa31 (掃把昕與魯熊)
2025-03-19 12:20:00意見不同就說別人 廢話 屁 外行韭菜 文組腦 然後一堆xddd 阿這就沒要討論的意思啦你各位就當某人今年來吃-50%需要一個大平台洩恨
作者: moom50302 (武林三羚鱷) 2025-03-19 12:21:00
你比特所有研發員都聰明,特不用原因根本不是成本問題特說過光達會跟現有計算造成影響,就繼續腦補可以合用
作者:
kazami (高處不勝寒)
2025-03-19 12:37:00你跟這位股板跑來的新警察講沒啥用啦 現在可能正因這幾個月狂跌坐立不安
作者:
OBTea (明珠)
2025-03-19 12:39:00LiDar 的判斷會增加false alarm 拖累效能,其實也是省成本的一環今天這個實驗就是業界內部訓練舉出視覺判斷盲點的經典例子,7-8年前就有的東西
作者:
dslite (呼呼)
2025-03-19 12:48:00馬斯克減成本的藉口被拿來當聖經喔 笑死
作者:
leutk (下雨天)
2025-03-19 12:49:00覺得依龍馬沒有僱用你真的太可惜了 如果有你的指導
作者:
kazami (高處不勝寒)
2025-03-19 12:50:00以前就看過朋友的老闆不知道哪要來的影像叫他加進去訓練
作者:
leutk (下雨天)
2025-03-19 12:50:00特斯拉統一自駕的天下真的是指日可待 你想到它們想不到的
作者:
kazami (高處不勝寒)
2025-03-19 12:51:00然後原本的正確度從略超過90%,驟降到6、70%,後來改參數也是只能到80%左右,後來老板叫他換其他模型試試,後續我就不知道怎樣了,從我聽到的經驗,加入Lidar對現有結果產生不良的影響其實相當合理
作者:
nrsair 2025-03-19 12:53:00光學鏡頭 光達 雷達 超音波 通通都做到車上
作者:
kazami (高處不勝寒)
2025-03-19 12:53:00只看特要不要花這些成本去做而已,我朋友是因為要畢業不得不做
訓練資料很怕衝突 你一直教他1 2 3後面會是4 突然出現幾筆資料1 2 3後面接100 這樣模型會變得很不穩定
作者:
OBTea (明珠)
2025-03-19 13:05:00視覺+光學整合是在自然界中很少見的,整合進AI 就是加成本沒錯修正:視覺+光達特斯拉應該不是沒想過,一來這會拖慢自動駕駛開發速度,二來這情況在現實發生的機率大概一輩子都不會遇到,三來正常人類視覺判斷就可以99%時間避免是故,更何況AI是集人勒視覺能力大成
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 13:15:00老黃的車在哪? 明明就一個外行 連老黃在賣什麼都不知道xddd發現現實生活中的光達車都打不贏fsd了就幻想一個「老黃的自駕車」出來然後產品到底在哪xdddd然後就自己生出一個一個意識形態「傳感器多一點 資訊比較多 一定好」生成式ai 放入 光達和視覺 兩者訓練出來的ai就沒一個比純視覺強 然後你在那邊靠感覺
作者:
OBTea (明珠)
2025-03-19 13:20:00資訊自然越多越好,是現在AI模型,演算法或是算力的限制才顯得純視覺是目前最佳解AI也是要GPU和記憶體到位才顯得有效益
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 13:23:00早期特斯拉的車都有雷達誰跟你「特斯拉一開始打定要純視覺」雷達+視覺就是無法在「生成ai架構下」訓練出好的結果特斯拉才關閉舊車上面的雷達什麼特斯拉一開始打定純視覺 胡說八道特斯拉一開始是雷達+視覺實證下來就是比純視覺差你去買2018年的特斯拉 哪台車沒雷達笑死
作者:
OBTea (明珠)
2025-03-19 13:24:00特斯拉自動駕駛的確很早就走純視覺2017-2018大概就確立方向
作者:
orange7986 (AnnoyingOrange)
2025-03-19 13:27:00是說關於Waymo發展慢我認為不光是技術瓶頸啦,州政府法規、市場接受度、造車成本都是發展緩慢的原因之一,但仍是市場領先者、先行者
作者:
skizard ( )
2025-03-19 13:29:00從一開始就只可能sensor fusion 過L5了
作者:
orange7986 (AnnoyingOrange)
2025-03-19 13:30:00*是指自駕計程車
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 13:30:00現在的ai模型就不是資訊越多越好亂餵一通模型就長的好餵的東西 和 演算法 才是重點模型才不會長歪聽文組腦在那邊靠感覺以為把視覺和雷達資訊都餵進去ai模型長出來的能力值就會大於只餵視覺可是這件事一直都是你自己在幻想的不是嗎特斯拉早期用雷達+視覺效果就不好然後你還在幻想都拿去餵ai 會更強lol
作者:
OBTea (明珠)
2025-03-19 13:33:00很早的時候,低成本自動駕駛解決方案很多就走純視覺,中國也一堆在搞,所以自駕才會追得那麼快就演算法跟不上資訊量才顯得純視覺是目前最佳,這有什麼好跳針的...
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 13:36:00中國沒半間自駕走純視覺純視覺是技術最難的要趕快商業化賣錢的話 車廠不可能純視覺這裡的人都講一堆奇怪跟現實世界完全反過來的話那種平常沒在研究自駕議題 看到ptt人家在討論就湊過來 講一堆常識以外的笑話真的快笑死純視覺才不是低成本純視覺等於你的軟體研發期會拉的更長因為硬體少 你就必須用軟體補足硬體軟體研發會拉得很長用光達建立高清地圖才是最快商業化的途徑市面上包含中國全部都是走光達模式只有特斯拉是純視覺但是waymo 中國自駕到頭來都沒比較強人眼的構造 攝影機比不上??黑人問號我家攝影機全黑暗房間中看得一清二楚人眼完全看不到你說人眼比較強xddd?然後你這文組硬體代工腦怎麼一直把重點放在「眼睛」「攝影機」這種硬體重點明明就是軟體明明就是「人類大腦」 「ai演算法」人眼視覺沒這麼強人類會開車是因為我們的大腦 從來不是因為我們的視覺有多強真的笑死 硬體腦你們這種外行人到最後就是淪為意識形態你的意識形態就是幻想「多傳感器一定棒」最簡單破解的辦法就是叫你們這種外行人舉出市面上實際已經在行駛的自駕系統 採用光達 有無贏純視覺這樣最簡單講理論你根本聽不懂講半天舉不出個屁中國光達成本都降多低了中國自駕玩光達都玩多久了哪家超越特拉斯fsd?waymo搞的時間比中國更久怎麼只有700台 安全性 接管率怎麼無法在變更強xddd人眼比攝影機強 ?笑死這就是曲博看太多的後遺症你以為你看過的東西 我會沒看過xddd別人隨便講一句 你照抄不思考 就是準備被打臉[新聞]NVIDIA搶攻自駕車市場!推模組化設計平台,賓士、通用汽車都成客戶2021.11.11所以你口中「老黃的車」2021年就開始合作了現在市面上看到什麼產品了?賓士自駕在哪?通用自駕在哪?喔通用的自駕 cruise已經撞死人退出市場了通用汽車已經放棄自駕研發了這就是你的大絕招「老黃的車」原來通用就是和老黃合作然後現在放棄不玩了xddd
作者:
kazami (高處不勝寒)
2025-03-19 14:06:00光你講視覺+雷達是訓練不出好結果就知道你是文組了 邏輯上做不出來是最難證明的 會講這種話就知道邏輯能力不怎麼樣
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 14:07:00[新聞]通用不玩了!重組Cruise 退出機器人計程車市場僅剩特斯拉、Waymo兩強爭霸
作者:
kazami (高處不勝寒)
2025-03-19 14:08:00你沒做過你怎麼知道做不出來 特只是因為現有模型加入lidar
作者:
kazami (高處不勝寒)
2025-03-19 14:09:00會影響結果, 不代表他們如果願意花時間重新做一樣做不出來
特黑水準只有這樣嗎...AP跟FSD都搞不懂就別來亂了吧
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 14:09:00特斯拉已經做過「雷達+視覺」 特斯拉做出來的效果 比純視覺差所以才關閉所有舊車上的雷達這不就是證明了
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 14:10:00你的邏輯真的要加強
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 14:11:00雷達和光達都分不清楚的文組最基本的智慧家庭先去玩玩了解一下傳感器 不要只會在電腦前面幻想
作者:
kazami (高處不勝寒)
2025-03-19 14:11:00你可能不知道有時候模型要重新設計吧 如果搞到重新設計就
作者:
kazami (高處不勝寒)
2025-03-19 14:12:00是重頭來過 是特不願意花那成本改善那可能只有1%的狀況 還
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 14:12:00端到端是2024年的事情了
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 14:13:00在2020以前特斯拉就已經發現「多傳感器和視覺融合」
作者:
kazami (高處不勝寒)
2025-03-19 14:15:00會歪掉本來就很正常好嘛 AI有部分論文就是一直有新的架構很多都是因為會歪掉 達不到好的結果
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 14:16:00最簡單的就是請你們這群文組韭菜去找出任何一家多傳
去看CVPR 2025 依舊各種感測器類型都有,說純視覺不
作者:
kazami (高處不勝寒)
2025-03-19 14:18:00算了 不可與夏蟲語冰 你繼續活在你的世界吧 反正看起來特
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 14:19:00意識形態就跟統獨一樣 講再多都沒用請你去po出多傳感器的自駕行車影片能贏過特斯拉的fsd中國那一票已經全輸了(城市+山路+非道路場域)三種地形給你時間去yt找吧找到我給你獎金100萬沒找到就不要在這邊廢話很吵xddd
所以你判斷依據是根據YT影片而不是IEEE的CVPR...
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 14:21:00這個id我以後見一次就會問他一次「老黃的車」在哪 不是說老黃的車都有了那在哪 落地了嗎xddd絕對被我問到3年內連一個實際的屁產品都沒有落地xddddd
作者:
zzahoward (Cheshire Cat)
2025-03-19 14:24:00感覺你根本不懂ML阿....
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 14:24:00你們文組韭菜意識形態跟你們講理論已經沒用現在就是講實際落地的產品如果多傳感器真的是王道那一定會有廠商把它做成產品落地直接舉那個產品出來不過我告訴你 可能30年內你們都拿不出來一群韭菜xdd明明就一群外行魯蛇通用和賓士2021就跟nvidia合作了自駕到現在連個屁都沒看到xddd通用還退出研發了真的快笑死你的老黃自駕車快拿出來已落地的產品我還在等耶
作者:
zzahoward (Cheshire Cat)
2025-03-19 14:30:00你講話有點太嗆了 目前還沒落地不代表2026年不會出現已經有很多家在用老黃的平台訓練了 但需要點時間事實上你看NHTSA當初的裁決 Tesla自己幾乎承認沒LiDar無法達標
Howard大說的也是沒錯不過看業界訪問老黃的顯卡模擬資料 只能拿來驗證無法拿來訓練要玩自駕 還是要有真實資料玩自駕都還是會用NV的卡 包含Tesla沒錯另外說一句E2E就沒有光達的位置還會用到光達 就不是真E2EHowerd大 還是用傳統範式理解自駕FSD的技術是E2E 沒有融合問題也無法
作者:
zzahoward (Cheshire Cat)
2025-03-19 14:55:00為什麼LiDar就不算E2E? 是高經地圖才不算E2E吧?
光達是拿來感知的,很好的工具感知後 還是要接決策,就是走傳統範式了
作者:
zzahoward (Cheshire Cat)
2025-03-19 14:58:00LiDar和攝影機的資訊從ML來看都是輸入資訊的接收器
作者:
zyx12320 (zyx12320)
2025-03-19 15:01:00可以啊,但多傳感器融合要聽誰的?你認為的冗余不是真
作者:
zzahoward (Cheshire Cat)
2025-03-19 15:01:00是還沒學習夠 畢竟LiDar+純視覺訓練不過是這兩三年
Howard大提的技術也許很快就可以work了特斯拉就怕新範式出現,FSD就完了
作者:
zyx12320 (zyx12320)
2025-03-19 15:03:00作者:
zyx12320 (zyx12320)
2025-03-19 15:04:00TESLA只怕兩件事 1.出現新範式2. Scaling law失效講到這邊跑題了 笑
作者:
zyx12320 (zyx12320)
2025-03-19 15:06:00沒跑題吧,不然這邊的專家講了N年都是同一套
rober標題寫FSD內容測AP就站不住腳AP還是傳統範式 FSD是E2E 完全不同
作者:
zyx12320 (zyx12320)
2025-03-19 15:08:00我都懶得討論rober,中國人2020用爛的手法2025還在用
ZXY大貼的東西 沒錯而且rober真的要跟中國媒體學一下這種影片太直白 被罵到Lumina都縮了
作者:
d4015394 (kevin)
2025-03-19 15:17:00怎看到有低端說中國都是靠純視覺這個低端不知道純視覺對演算法的技術要求是最高,護城河是最高的嗎既然如此中國廉價自駕哪有可能靠純視覺不都靠光達作弊嗎然後可笑的是靠光達作弊後自駕能力還比人家純視覺低攝像頭比人眼弱我還是第一次聽到你家還是在用30年前的監視器嗎現在隨便一個2000元的監視器都比人眼強,你黑暗中看不到的,他都看得到特斯拉8隻攝像頭,不叫做超感官?什麼文組認知你的眼睛有8顆?攝像頭裡面的cmos還可以靠抓電子數去讀每個噪點的光子顆粒數量你的眼睛可以讀取到空間中有幾顆光子?第一次聽到攝像頭不超感官的文組真多
作者:
zzahoward (Cheshire Cat)
2025-03-19 15:30:00不 人眼確實在很多方面比攝影機強 光是轉動速度就是很驚人的創造 雖然只有中心超高解析 但透過大腦可以達到
作者: carryton (Christopher) 2025-03-19 15:31:00
樓上蔚來、小鵬都有開發純視覺蔚來還自己開發AI晶片整天把低端掛嘴邊不如多看一點資訊
作者:
zzahoward (Cheshire Cat)
2025-03-19 15:32:00寬闊的視野 整個機構的旋轉甚至還配合了頸部肌肉以及內耳假如人眼那麼弱 就不會天天追求更高的解析度了Fusion的對演算法的要求其實更高...整體來說 我還是覺得純視覺是推進自動駕駛主力 但是否只靠純視覺就能達成 我反而覺得有待討論以前很多人認為RL不可能成功所以都只用RLHF 但就是被突破了
作者:
d4015394 (kevin)
2025-03-19 15:39:00近視100 200度的人都可以裸眼開車了啦 什麼人眼高解析度
用fusion處理感知 那接下來就是決策模塊決策模塊就是一大堆rule base的東西
作者:
d4015394 (kevin)
2025-03-19 15:41:00你以為每個開車的眼睛都很健康1.0喔?我家人黃斑部病變 視力只有0.2都能在白天開車了 少胡說八道
作者:
joiedevivre (難铿‚¨éµç›¤ç³»? :D)
2025-03-19 15:41:00真的別浪費時間嘗試教育失去理性的狂粉 沒有意義
作者:
d4015394 (kevin)
2025-03-19 15:42:00而是讀光子顆粒數量
作者:
zzahoward (Cheshire Cat)
2025-03-19 15:42:00其實Fusion不同的傳感資訊進入真的要寫Rules嗎? 不能直接訓練?
作者:
d4015394 (kevin)
2025-03-19 15:43:00現在我們看不到遠處的招牌字
作者:
joiedevivre (難铿‚¨éµç›¤ç³»? :D)
2025-03-19 15:43:00end to end就是不要rule的嘗試 其實一直都有人做
作者:
zzahoward (Cheshire Cat)
2025-03-19 15:43:00d401我討論的是人眼天生的機構 你拿黃光病變....
作者:
zyx12320 (zyx12320)
2025-03-19 15:44:00Howard大其實我貼的圖已經回答你的問題了
作者:
zzahoward (Cheshire Cat)
2025-03-19 15:44:00黃斑病變*
作者:
d4015394 (kevin)
2025-03-19 15:44:00一直插我話,是怕被我電爆嗎
作者:
zzahoward (Cheshire Cat)
2025-03-19 15:45:00zyx我有看你貼的 但那是用Tesla既有的模型下去解讀?那是你分別對兩種傳感器去training 但假如同時呢?
作者:
d4015394 (kevin)
2025-03-19 15:48:00人類近視就能裸眼開車了跟我說要開車的必要條件是高解析鏡頭真的被你這文組打敗看不到遠處招牌字,先用iphone相機拍下來再放大zoom in
作者:
leutk (下雨天)
2025-03-19 15:49:00我以為追求更高解析度不就賣商品的行銷方式嗎就跟音質一樣 很多人就是看不出來跟聽不出來
作者:
d4015394 (kevin)
2025-03-19 15:49:00人眼比鏡頭強,我直接肉眼看就好,我幹嘛先用手機拍下來,再放大來看不是讀醫學的在那邊胡說八道
作者:
leutk (下雨天)
2025-03-19 15:50:00然後當然不會有人承認啦 這樣會顯得自己低能
作者:
d4015394 (kevin)
2025-03-19 15:50:00真的快笑死光達會讓解析度變高嗎會以為人眼超越鏡頭本身就腦子要保養
作者:
zyx12320 (zyx12320)
2025-03-19 15:52:00融合算法就是指同時訓練了啊,目前看來單模型也是正解理想也剛放棄所謂的雙系統,改成單ㄧ模型了Rule-based 注定失敗就不討論了,看waymo十幾年的牛步
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 15:54:00光達派就廢得可以 幾乎都不討論演算法
作者:
zyx12320 (zyx12320)
2025-03-19 15:55:00多傳感器+rule bas算是自駕濫觴,但也是一個詛咒
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 15:55:00表示這群人基本上覺得演算法不是重點XDDD覺得每台車都裝上光達後 全自駕就達到了 神經病就好像你買得的到EUV 2奈米就自動生出來了人眼比鏡頭強這種常識就不用教了人眼除了解析度能贏過鏡頭 其他全輸開車需要的並不是無限堆解析度 解析度達到基本門檻即可人眼如果硬要用解析度的概念 比4K影片還高甚至8K的影片也達不到人眼的解析度問題人眼缺乏高度遠視能力 高度近視能力 夜視能力所以人在看遠處字體 看不清楚 才需要借助解析度比自己差的手機鏡頭去拍攝讀取夜晚看不到才需要借助鏡頭夜視功能然後人眼的高解析度只有在1.0的視力 並且投影在黃斑部的那個角度 才會達到8k影片也達不到的解析度也就一個角度 現實狀況下 人眼根本無法跟鏡頭比真正能讓人類開車的 根本不是視力 視力只要有基本門檻主要是人類的大腦 對於場景的理解跟解析攝影機的綜合能力本身就超越人眼了在搭配優秀的演算法 開車要比人類安全10倍以上是基本rule based 會有最基本的幽靈煞車 幾乎每家都解決不了
作者:
d4015394 (kevin)
2025-03-19 16:10:00會以為人眼超越鏡頭本身就腦子要保養還扯什麼頸部,你轉頭是可以看到側後的車身講得光達可以無視天氣一樣鏡頭不能開的光達一樣死,還多了誤判把緻密的雨滴判斷成障礙物
你以為鏡頭靠自己晚上就看得到?不靠NIR LED也是一片黑啦
作者:
zzahoward (Cheshire Cat)
2025-03-19 16:25:00其實我不太懂為什麼兩種感測器就一定要Rule Base權重不就是Training的目的性嗎?y
作者:
kira925 (1 2 3 4 疾風炭)
2025-03-19 16:26:00只有他知道的世界吧
LiDAR是可以用SWIR波段的SWIR雲霧的穿透力比可見光波段好
作者:
d4015394 (kevin)
2025-03-19 16:29:00特斯拉在暴風雪全霧氣,全黑暗只開車燈的行車紀錄一堆,腦子都沒在看?
作者:
d4015394 (kevin)
2025-03-19 16:32:00兩種感測器跑E2E跑出來的結果就是不如純鏡頭,這個特斯拉用過毫米波雷達和鏡頭訓練過了,訓練出來的權重就是不比純視覺。但E2E是黑盒,無法解釋為什麼會不如,只能接受結果這東西前面有人講了,你還不懂,在這邊搞笑
作者:
zzahoward (Cheshire Cat)
2025-03-19 16:32:00LiDar也可以透過軟體加大功率和抑制雜訊
作者:
kira925 (1 2 3 4 疾風炭)
2025-03-19 16:33:00有的時候我都會好奇 哪來這麼多帳號專門來吵架的
作者:
d4015394 (kevin)
2025-03-19 16:33:00不如特斯拉舊車用雷達是幹嘛的,你以為是安裝好玩的?lol
作者:
zzahoward (Cheshire Cat)
2025-03-19 16:35:00其實Elon從沒說過反對兩種感測器...
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 16:36:00沒反對過 所以2020年以前的特斯拉二手車都有雷達啊只是雷達和鏡頭一起訓練表現結果就不好不尊重這個科學事實 一直盧不知道幹嘛
作者:
zzahoward (Cheshire Cat)
2025-03-19 16:38:00不 他只是認為LiDar不是他想要的解析等級
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 16:38:00走純視覺就是因為事實是這樣 而不是特斯拉天生挺純視覺而是事實顯示非視覺感測+視覺 訓練出來的權重表現結果就是比純鏡頭還差而端到端是黑盒子 無法解釋為什麼多一個感測結果會不不如純鏡頭就像你也無法理解正傑為什麼要去捷運站砍人你唯一能做的就是把正傑消滅掉所以既然雷達和鏡頭一起訓練出來的ai 表現很差
作者:
zzahoward (Cheshire Cat)
2025-03-19 16:41:00有LiDar+Pure vision vs. Pure Vision論文嗎?
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 16:41:00你也無法解釋為什麼 你能做的就是廢除這種混合體改成純鏡頭訓練
作者:
zyx12320 (zyx12320)
2025-03-19 16:42:00現在連特斯拉都在藏了,只能用產品力評論
作者:
zzahoward (Cheshire Cat)
2025-03-19 16:43:00成果不好總是要有論文 或是模擬比較?
作者:
zyx12320 (zyx12320)
2025-03-19 16:44:00作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 16:48:00特斯拉早在去年開始的ai day就不公開他們自駕思路了v11版本之前還全部開源 進入v12就開始藏招了
作者:
nrsair 2025-03-19 16:49:00視力有問題去治療不要在路上開車害人
作者:
leefengynh (/65G ・ 125/250K1W)
2025-03-19 16:49:00v11版本的fsd 我那時候看就是不行 還不成熟進入v12 自駕開始有質的飛躍 然後ai day也不講了華為在我來看就是把特斯拉v11 做到極致特斯拉顯然v11做到一半 轉技術路線 直接跳v12如果華為智駕 vs 特斯拉v11 那華為會贏因為特斯拉就半途放棄 直接轉技術路線了v12以後 華為的v11就算寫的在極致 和v12看起來就是有代差 完全不是一個世代的東西更不用講v13又是v12的100倍強真正會用在無人出租車的應該會是v14版本這個版本會開始增加ai的長期記憶長期記憶才是人類開車的安全冗餘目前的自駕基本上缺乏這塊人類在熟悉的道路 對汽車安全的掌握是不熟悉道路的10倍以上基本上v14以後就是要做到ai能把開過的路細節都記下而ai因為有幾百萬輛車 所以開過的里程會遠高於單人類
作者:
sharku (明珠求瑕)
2025-03-19 18:41:00推 lee 觀念正確
作者:
APC ( 能搞革命 我很快樂 )
2025-03-19 18:54:00天眼通 xDD
作者:
kkittles (可愛狗范妮)
2025-03-19 19:09:00看過一些中國FSD評測,同樣路線第一次走錯介入修正之後第二次再走就走對了,可能真的有長期記憶的功能了
作者:
water6 (.......)
2025-03-20 00:09:00老黃做的是晶片跟訓練平台…
camera radar fusion的E2E也是不少人在做去找CVPR 2025錄取論文 各式感測器、感知、決策都有
錢大 現實是現在每個人都想做啊 但是成品拿不出來每家都馬想做E2E 但市面上真的就沒看到~Tesla下一版要包音訊 也不是純視覺了
作者: syk1104 (ONENO) 2025-03-20 09:44:00
阿他就是撞之前還狂踩油門,都被警告了...
作者: cccc5566 (cccc5566) 2025-03-21 03:30:00
Waymo跑十年以後還是一樣的東西
作者:
water6 (.......)
2025-03-21 06:51:00