[新聞] 深度感測技術實現3D機器視覺

作者: hedgehogs (刺蝟)   2021-07-26 17:31:04
原文標題:
深度感測技術實現3D機器視覺 (請勿刪減原文標題)
原文連結:
https://reurl.cc/Gmv6op (請善用縮網址工具)
發布時間:
2021-07-20
作者 : Anne-Françoise Pelé,EE Times歐洲版主編
(請以原文網頁/報紙之發布時間為準)
原文內容:
什麼是人類視覺能做到而電腦視覺所不能的?人類從三個維度感知世界,而深度感測器是
實現更高等級機器視覺、解鎖自動駕駛功能的關鍵。
在感測技術最新發展的助力之下,越來越多的機器被賦予了感知、行動及與環境互動的能
力;為此,《EE Times》歐洲版團隊探索了當前3D視覺技術領域,以期更清晰地了解其市
場驅動力以及零組件供應商面臨的機遇和挑戰,還有可支援更高等級深度敏感度的新興技
術。
https://www.eettaiwan.com/wp-content/uploads/sites/5/2021/07/3DsensorP1.png
Yole預期車用3D感測技術市場規模將在未來五年內成長四倍。
往更高深度發展
根據市場研究機構Yole Développement的統計數字,在模組層面,3D感測市場目前市值
為68億美元,將以15%的複合年成長率(CAGR)在2026年達到150億美元規模。
Yole Développement光學和感測部門首席分析師Pierre Cambou接受《EE Times》歐洲版
訪問時表示:「因為華為(Huawei)禁令以及Android陣營事實上放棄了3D感測技術,扮演
主要市場驅動力的手機與消費性電子市場的成長出現暫時性中斷;」他補充指出,在另一
方面,「由於Apple在iPad和iPhone添加光達(LiDAR)感測器,又加速了此一趨勢。」
3D感測在汽車領域的應用也在加速。LiDAR感測器和座艙內3D攝影機越來越多地被採用,
「我們對汽車市場的 3D 感測發展非常樂觀,該市場規模在未來五年應能成長四倍。」
目前較流行的3D成像技術包括立體視覺(stereo vision)、結構光(structured light)和
飛行時間(ToF)。Cambou指出,立體視覺在10公尺以外的遠距離感測應用中表現極佳,例
如大疆(DJI)等業者的消費性無人機,以及Mercedes、Jaguar和Subaru等車廠在某些車款
採用的前向ADAS 攝影機。
結構光技術則一直是1公尺內短距離感測的首選方案,經典應用案例如iPhone將其用於前
向Face ID臉部辨識功能;該技術也被導入某些工業應用,獲得Photoneo等公司採用。至
於TOF,Cambou表示該類系統主要用於中距離,目前主要有兩種方法;一是間接
(indirect) ToF,獲得華為、三星(Samsung)與LG等手機應用於2019 和2020年款式的
Android手機後向攝影機,主要用於拍照。
還有另一種直接ToF,已導入Apple最新款iPhone;Cambou指出:「直接ToF是LiDAR 中已
經採用的技術(例如Velodyne、Innoviz、Ibeo、Hesai和RoboSense等公司的產品),但最
終可能會在接收側使用矩陣形式感測器。由於來自自動駕駛的激勵,這類感測器正在取得
進展。」
EELs還是VCSELs?
LiDAR擷取整個場景的能力,使該技術在機器視覺應用中極具價值;取得3D點雲最常用的
兩種系統為Flash LiDAR和掃描式(scanning) LiDAR。
ams Osram全球行銷經理Matthias Hoenig表示,在掃描式LiDAR系統中,聚焦脈衝雷射光
束透過機械旋轉反射鏡或微機電系統(MEMS)反射鏡定向到某個特定的小立體角(solid
angle)。由於高功率雷射光束可以被控制發射在很小的立體角,因此與使用3D Flash系統
可達到的距離相比,使用光學功率元件可達到的距離要遠得多。
Hoenig指出:「邊射型雷射(Edge-emitting lasers,EEL)是這類系統架構的理想選擇,
因為是透過一個很小的發射區域在極小空間內提供大量的光線,在功耗和距離方面都表現
出色。」現在已成為ams子公司的Osram表示,隨著封裝溫度在應用過程中上升,其雷射器
在波導穩定性方面最近取得了不少進展,該公司目前正在探索針對LiDAR 應用的具有更高
波長產品。
Yole 預測,就雷射二極體而言,EEL目前的市場機會最大,但垂直共振腔面射型雷射
(VCSEL) 將會在未來迅速趕上。VCSEL結合了紅外線LED的高功率密度、封裝簡單優點,以
及雷射的光譜寬度與速度。
「這項技術的優勢包括出色的光束品質、簡單的設計和小尺寸,這也解釋了VCSEL市場成
長的原因;」Hoenig表示:「通常來說,雖然在某種程度上它們需要的佔位空間會比EEL
發射器更多,但在某些應用領域又具有優勢。」
他解釋,例如,VCSEL所具有的輻射特性使其特別適用於Flash LiDAR系統以及工業應用─
─如機器人、物流車輛等──的主動立體視覺。至於VCSEL相關的技術挑戰,Hoenig表示
,ams Osram正在研究更高的光輸出。
在2018年收購Vixar之後,Osram陸續展示了比單接面(single-junction) VCSEL效率更高
、速度更快的雙接面與三接面VCSEL技術。在2021年的美國Photonics West展會上,ams
Osram又推出了基於多接面技術的PowerBoost VCSEL 產品系列;該公司表示,他們還在探
索改善散熱的各種方法,例如,從頂部發射元件改為底部發射元件。
ams Osram資深行銷經理Lei Tu表示,所有常見的3D感測方法都仰賴各個系統功能區塊之
間的順暢互動。通常這些系統由光源、專用光學元件、探測器,和處理探測訊號之下游軟
體(downstream software)組成。
她接著指出,在未來,「對ams Osram這樣的元件製造商來說,重點將是以可行的最佳方
式滿足客戶的需求,包括元件的小型化,以及光學性能和使用壽命的最佳化,當然還有易
用性。」 Tu補充,有些客戶喜歡「現成的隨插即用解決方案,」另一些客戶則更傾向於
自己動手組裝單個元件,或透過協力廠商將它們組裝成完整的解決方案。」
用於盲點偵測的深度和側面感測
深度感知是指從三個維度「看」物體、並測量物體距離多遠的能力。LiDAR無疑扮演了自
動駕駛車輛的眼睛,許多車廠都利用它來構建車輛周圍的3D環景圖。不過,相關技術開發
工作主要還是聚焦於在支援較長探測距離(200公尺以上)但視野相對狹窄(約20°~30°)的
前向LiDAR 系統。
一家在2019年自德國Fraunhofer矽技術研究所(Institute for Silicon Technology,
ISIT)獨立出來的公司OQmented正在努力改變這種狀況;該公司表示,他們已開發出一種
MEMS反射鏡技術,可以使側邊LiDAR具有180°視野。
OQmented創辦人兼董事總經理Ulrich Hofmann表示,「側視LiDAR系統主要針對短距離盲
點偵測;」盲點偵測是一項重要的安全功能,它使短距離側面掃瞄系統「比遠視系統更具
意義。」舉例來說,「在進入一個十字路口時,妳會需要這些LiDAR系統在短距離範圍進
行觀察,因為這種環境中的行人、自行車騎士和汽車都很多,很容易混亂並發生意外。」
「出於以上原因,不僅在需要有寬廣角度的清晰視野,較高的橫向解析度也很重要,它可
以區分不同的物體,包括靜態和移動的物體;」OQmented在其MEMS反射鏡頂部以曲面玻璃
蓋取代平面玻璃蓋,讓雷射光束成功傳輸到封裝中,並實現180°雷射掃描。
Hofmann指出,該公司的專利Bubble MEMS技術不僅提供了「密封真空封裝和保護,」避免
元件受環境污染物影響,還確保了雷射光束成功出入封裝,因為雷射光束與玻璃的角度始
終垂直;當使用平面玻璃蓋時,情況就並非總是如此理想,當掃描角度較大時,部分光線
會在蓋子處反射回封裝中,這對於任何類型的LiDAR解決方案都是不可接受的。
https://www.eettaiwan.com/wp-content/uploads/sites/5/2021/07/3DsensorP2.png
Bubble MEMS技術的命名源自於該MEMS反射鏡上方的曲面玻璃蓋。(來源:OQmented)
更接近資料來源
影像感測器會生成大量的資料,儘管目前大部分處理過程都在雲端或中央處理單元完成,
但其發展趨勢是使運算更接近資料來源,並將智慧元素嵌入感測器內部或附近。
Yole的Cambou表示,通常情況下,資料採用H.264技術壓縮,這意味著它可以透過100Mbp
的頻寬傳輸;「但在感測領域,資料流通常是10到100倍——典型機器視覺資料流可達到
1Gbps——而且,如果同時使用10個攝影機,則很快會達到10Gbps 甚至更高。」
由於CPU任務繁重,靠近感測器進行資料處理的必要性越來越高;如果需要,所有預處理
、清理和AI強化都必須在更靠近感測器的位置進行,以減輕CPU的負擔;」但Cambou也指
出,目前還幾乎沒有運算能夠在感測器本地進行,因為會產生熱。
前景展望
影像感測器是實現自動駕駛的一個關鍵因素,卻不能無限制地添加,因為所需要的運算能
力也會激增。對此Yole的分析師表示,有一種解決方案是提高資料品質;「但如果真的想
解決自動駕駛問題,我們很快就會需要更多樣化的解決方案。」
https://www.eettaiwan.com/wp-content/uploads/sites/5/2021/07/3DsensorP3.png
影像感測器技術的創新歷程。
(圖片來源:Yole Développement)
新技術不斷湧現,用以提高靈敏度並構建可以看得更清楚的機器。Cambou指出了兩個方向
:一是神經形態感知(neuromorphic sensing),也就是每個像素都扮演神經元,並嵌入一
定程度的智慧;二是以及量子成像,即單獨偵測每個光子。
總部位於法國的神經形態新創公司Prophesee推出了基於事件(event-based)的工業級視覺
感測器──第三代Metavision感測器。該公司產品行銷暨創新總監Simone Lavizzari表示
:「如果Metavision感測器與VCSEL投射器或其他可以投射適當圖案的投射器結合使用,
就可以實現基於事件的結構光感測器;」也就是說,當今最先進的深度感測技術在曝光時
間、精確度和耐用性之間取得了平衡。
Lavizzari表示,將紅外線(IR)投射器與Prophesee的Metavision感測器結合,可為每個獨
立像素提供快速反應時間,進而允許直接在感測器內部進行時間模式識別和提取;「如果
採用基於事件的感測器來做結構光,反應會非常快。我們可以將掃描時間提高50倍,只需
1毫秒(millisecond)就能獲得完整的3D掃描,而傳統基於影格(frame-based)方法則需要
10~33毫秒。」
基於事件的感測器也具備先進的精確度,而且「軟體複雜度已降至最低,因為不需要在後
處理中進行匹配(matching);」Lavizzari指出,匹配不是在事件發生後在影格上完成,
而是在感測器層級逐個像素完成,這其中一個優勢是,「它沒有運動模糊,因為可以非常
快速地截取點雲,而且相容於戶外應用相容。」 超快脈衝偵測不僅可以提高功率,還能
保持該技術的人眼安全等級。
在量子成像方面,Cambou 提到了Gigajot Technology的Quanta Image Sensors (QIS),
這是一款具有光子計數(photon-counting)能力的單光子影像感測器。Gigajot是一家總部
位於美國加州的新創公司,聲稱能以每像素/影格1個光子的等級,從一個個影格中重建動
態場景。
責編:Judith Cheng;本文同步刊登於EE Times Taiwan Digital數位板雜誌2021年7月號
(參考原文 :Depth Sensing Takes Machine Vision into Another Dimension ,By
Anne-Françoise Pelé)
心得/評論: ※必需填寫滿20字
看起來重點在光達技術(LiDAR)還有運算處理器,台廠有可能吃到這市場嗎?

Links booklink

Contact Us: admin [ a t ] ucptt.com