[閒聊] Vive與白宮合作,通訊技術更升級?

作者: comeon88 (mommy-boy)   2016-07-19 12:09:06
http://goo.gl/m5zDkW
節錄第一段
HTC於今日宣布與美國政府的先進無線通信研究計畫(Advanced Wireless Research
Initiative (AWRI))進行技術合作,這個計畫由美國白宮與美國國家科學基金會一同推
出,旨在推動下一代的無線通訊網路的技術與相關研究。
感覺無線通訊技術又會有重大變革
不過個人是覺得如果把線的問題解決掉
相信vive一定可以更吸引人
不知道將來是否可以將VR技術應用在手機上面
將來的視訊對話就可以直接看到人影
就跟真的面對面一樣
或是重現過世的親人之類的應該會蠻不錯的
大家覺得呢?
作者: cat031147 (回憶難忘,人更難)   2016-07-19 12:23:00
科幻片裡面電話不是都用AR嗎? 其實只需立體投影吧XD
作者: Firstshadow (IamCatづミ'_'ミづ)   2016-07-19 15:47:00
(づ′・ω・)づ 大概是放個人辦公室用的吧會議再用AR
作者: kuma660224 (kuma660224)   2016-07-19 16:00:00
AR會議是把人形即時掃描傳送再重現。資料量太大VR會議大概顯現是很像真人的3D avatar虛擬替身。後者大概只要即時掃描並傳輸mocap骨架資料
作者: BOJJ (BOJJ)   2016-07-19 21:06:00
應該是想移除那條傳輸線吧
作者: chrispherd (WTF)   2016-07-19 22:42:00
VR會議根本找不到痛點是什麼啊?話聽得清楚畫面足夠就就好。
作者: cat031147 (回憶難忘,人更難)   2016-07-20 01:31:00
可以參考金牌特務開會的那一段 XDDD開會時候的肢體語言跟表情是很重要的阿而且共同操作一份事物 甚至是多個投影(?
作者: giintaipei   2016-07-20 02:43:00
AR/VR會議 不只再更縮小人在現場開會和視訊開會的差異同時再增加比現場開會更有效率溝通的可能性打個比方 : 在桌上展示一台Tesla汽車現場大部拆解講解自己做的某個部件加裝之後的模擬狀況但這項技術用在樓主說的重現回憶 或 經典時刻才是真正的痛點 BTW 人形即時掃描傳送再重現 依照品質劃分已經有不同的實現方法可行 最陽春的隨便架一台深度攝影機 限制角度 也可以被行銷為 3D會議資料量的傳輸也有不同解 就算用最大最笨的傳輸法15M/s 原始資料 100Mps的光纖也可以handle住其實隨著硬體發展 很有可能近幾年內商品就會問世了Microsoft Hololens 團隊成員跳出來自己做的startuphttps://www.youtube.com/watch?v=2dkcJ1YhYw4
作者: kuma660224 (kuma660224)   2016-07-20 09:14:00
1人15M/s對笨方法(即時掃描)來說還是太小了。用Depth分析得到人型高解析RGB x 60fps x 10~50人會議而且無法處理半透明物體或太細節的地方(ex髮毛)。不如用會議前過掃描機3D建模與skin產生骨架。會議時只要用攝影機抓最新3D骨架位置。會議即時傳輸骨架座標向量,用3D引擎skinmesh繪製虛擬真身,這樣50人或500會議都沒啥問題。不過缺點是只能永遠正常會議。如果是想跟異國脫衣舞女郎來越洋私密meeting。只傳輸mopcap資料是不會自動呈現脫光的樣子但好處是虛擬真身可以調整訂做。比如你可以開一場泰迪熊會議,人人都是泰迪熊……
作者: lovinlover (Lovin Lover)   2016-07-20 09:38:00
MOD才是精髓(?)
作者: chrispherd (WTF)   2016-07-20 10:05:00
以上講的都是感覺上很吸引人但沒有也不會怎麼樣的點啊應該有更簡單的解決方法,不需要用到成本可能更高的AVR吧!舉例來說車子的解構用電腦畫面展示就可以了吧應該專注在那些現在根本無法搬進視訊會議的事情比較比較有機會吧。kuma講的東西聽起來不太正規但卻更有趣
作者: ManInBlack (阿闕)   2016-07-20 12:25:00
有點像模擬市民online+VR,感覺就很有趣啊XD
作者: kuma660224 (kuma660224)   2016-07-20 16:40:00
=VR MMORPG可忠實呈現本人樣子。不同國家人們在虛擬世界就能開虛擬會議。多鏡頭VR倒是有可能用來scan建模比如登入前要求站大字型幾秒(拍攝)高精度模型貼圖骨架就有依據可以產生。類似維冠大樓時,有人用幾張照片就產生模型角度越多越清晰,越能越貼近真實形狀材質。不過理論上這需要幾個Kinect功能的cam同時取得多角度深度(形狀)與顏色(貼圖)才有足夠立體化資訊。
作者: giintaipei   2016-07-21 01:21:00
的確 要算60FPS 高解析度(HD 以上) 資料量會更大現有即時傳輸的技術RGB是HD(1920x1080)以下 + 30fps現在有的即時傳輸技術大多只傳raw 然後在客戶端作3D reconstruction 也就是說 60fps, 4k rgb, HD depth可以控制在 12M/s 更何況如果加上壓縮和去背景不過當然GPU要求就很高囉 但反正現在VR/AR也都要求高配備就是了 有趣的是Mocap也有應用在即時傳輸技術裡根據frame to frame skeleton變化 補足更多當下沒抓到的資料不過當品質的要求和 3D model的完整度(無限角度)就要用更好的sensor 可惜Perceptiveio (Hololens團隊跳出來的那間startup) 用的硬體滿貴的 不然他們資料量那麼大還可以 real time 真的滿猛的

Links booklink

Contact Us: admin [ a t ] ucptt.com