[請益] 機器學習能有什麼玩法?

作者: nfs258147 (258)   2017-10-08 19:02:03
大家好
Google這幾天發表了開源的machine learning程式碼。玩了一下覺得不得了,這實在太有
趣了。
在人人有手機的時代,結合AR與機器學習的元素後、手遊能有什麼新的玩法?
小弟目前還不知道它可以用在什麼地方,純粹只是感到興奮而已XD
小弟花兩分鐘的動手玩影片:
https://youtu.be/aNENxOLd94Y
===
以下是這次機器學習的故事背景:
藉由學習大量的照片,它可以識別出不同照片中的物體。
例如,拿著手機在攝影機前晃一晃、讓它拍下幾百張照片;然後再拿手錶做一樣的事。然
後,它馬上就可以即時判斷畫面中的物體是手錶還是手機了。即使物體角度、大小、光線
變化、只要樣本數夠多它都能判斷出來。
以上這些神奇的科技不用任何軟體費用,只要一台有攝影機的普通筆電、以及會按滑鼠的
人即可(還不用懂程式),真是太神奇了。
順帶一提,我只花五分鐘就從完全沒有基礎、到完成訓練了,這真的是個好工具。
新聞出處:
https://www.cool3c.com/article/129697/amp
體驗網址(桌電需搭配chrome):
https://teachablemachine.withgoogle.com/
作者: sakyer (石理克)   2017-10-08 19:38:00
喔喔喔 這個好
作者: art1 (人,原來不是人)   2017-10-08 21:36:00
我想要讓電腦幫我識別的東西比較複雜,感覺這應該達不到需求
作者: LayerZ (無法如願)   2017-10-09 02:59:00
這東西可以訓練完後拿去餵大數據阿
作者: dklassic (DK)   2017-10-09 11:24:00
其實逃離房間那類實境遊戲應該會最好用 XD可以刻意訓練成能辨識很特定的東西做出不同反應
作者: Schottky (順風相送)   2017-10-09 19:28:00
跟訓練的數量沒有絕對關係,有可能再多也完全不會收斂
作者: MBRSL (MBRSL)   2017-10-09 23:33:00
PVP遊戲的中~低等級的AI
作者: silverair (木柵福山雅治)   2017-10-10 01:53:00
拿來做恐怖遊戲不錯阿,在電腦前閃躲、閉眼時把jumpscare延遲,等你表情放鬆的時候再突然嚇你
作者: LayerZ (無法如願)   2017-10-10 06:34:00
我現在幻想的是,任何人上傳照片都能靠分析直接判斷出位置不需要紅外線鏡頭測準度等物理手段當然前提是背景有拍到地標,而判斷來源是google擁有的地球圖庫big data(街景車,fb ig等社群當然射影機能即時運算更好,配合ar kit chip去達到全新的射群體驗社...(一個字毀了一串文
作者: cjcat2266 (CJ Cat)   2017-10-10 07:39:00
樓樓上的讓我想到機車的P.T. (被下架的沉默之丘teaser)探頭往廁所裡面看好久都沒事,要轉身離去的時後才跳出來嚇人
作者: art1 (人,原來不是人)   2017-10-10 08:15:00
想讓電腦辨識的東西是題庫,從選擇題的題庫中得到題目+選項若題庫有附正確答案則也要辨識出來正規表達式能處理的只有文字,遇到數學題庫、化學題庫就沒輒選擇題對電腦來說難度應該是最小的,其他還有填充題、問答題,配對題
作者: ddavid (謊言接線生)   2017-10-11 01:04:00
上面那個判斷地點的其實有點誤判大數據的資料量跟目標了如果目標是「詳細地點」,則分母太大了,即便Google街景車累積拍了很多照片,但對於單一小地點的照片量就遠少且變化不足(例如,就不會每隔一小時、每個月的照片都有)這樣你表面上看起來像是Big data,其實對於太細的目標來說完全沒有發揮出Big data的效果舉一個相對比較發揮Big data的用法,就是你拍張街景,讓它自動猜出你在哪一個國家這個目標的分母就小得多了,而且對每個目標所擁有的資訊也豐富且多樣又帶有一定的重複性跟特徵,Big data的影響力能發揮得更好一點至於判斷詳細地點這件事,我必須說那是一件靠Big data意義不大的事情,即便你做出來了,但現在每台手機直接就擁有的能力為什麼需要另外一個更麻煩、更不準確且Cost可能還更高的機制來做呢?上面舉的判斷國家也不是一個很好的應用例子,只是用來說明後端處理時它比較有發揮Big data感覺一些而已
作者: JackysNose (毫無回應 就只是個鼻子)   2017-10-11 17:38:00
還蠻有趣的w
作者: ddavid (謊言接線生)   2017-10-11 23:52:00
話說,這個如何XD:https://goo.gl/92rm3r
作者: LayerZ (無法如願)   2017-10-12 13:45:00
那如果是 big data中已經被分類過的哩比如說利用所有tag #101的照片 自動建出101模型當然不可能拿全世界的地圖去跑單一地點就像機器人在玩3d建模拼圖一樣只是拼圖可能不完整或是亂七八糟的東西tag 101也能自動踢掉當然,這樣就能夠詳細從照片反推出很精準的坐標然後我覺得google glass還是太早..等隱形眼鏡的螢幕成熟吧目前能夠實用化是手機隱形眼鏡螢幕也不太對,更遠了,但是google glass能搞定成像時黑幕(其實有點像變色鏡片?) 跟眼球追蹤(eyes touch會比較有實用性吧..
作者: ddavid (謊言接線生)   2017-10-14 02:47:00
世界感知分析甚至自動從2D建3D模的話,問題會在於你在training階段要先有正確答案,否則你連Model怎麼training都不知道所有#101的照片,內容並不一定只有101。雖然101已經算是相對明顯的建築物,所以搭配其他技術切割及比對是可能自動獨立出來,不過這也是101的獨特性才比較有機會不過其實我上面回那一大段主要針對Google Map的資料,如果是圖片網站 + Tag的話,事情有點不一樣XD有Tag當然就可以想辦法把Tag做為Class拿來玩分類,不瞞你說我現在的研究其實就是跟這種Multi-label classification重度相關的東西呢,只是做比較底層所以不限也沒針對圖片處理、針對其實及時從畫面中分離鎖定某種東西,這種技術早就存在了,就是人臉鎖定。因為只要是人臉,有很多共通特徵幾乎不會改變,所以可以細心調整出一個Model,然後所有人的手機所有人的臉都可以用了但是只要做以下的類比就知道辨識環境中所有事物的麻煩在哪:你現在是要為環境中所有你想到要分離出來的東西都各建一個Model來判斷,光是每一個類別之中同類事物的差別就可能天差地遠,不同類別的東西卻又可能搞不好長得很像,然後最糟糕的是類別的數量可能很多,你每次分析環境都要一口氣跑過每一個Model以把所有東西都辨識出來如果上面這件事可以做得很準確又很有效率很即時,相比之下要從那些資訊拿來查Google Map做定位應該反而簡單很多XD事實上Tag最糟糕的一個問題就是很容易不完整,不可能把一張照片中所有存在的要素都標出來,然後基本上分類演算法如果沒有特別處理就會把沒標當真的沒有,然後就會錯誤一堆
作者: art1 (人,原來不是人)   2017-10-15 04:49:00
前陣子看到一份簡報檔,裏面提到用深度學習辨識影片中場景,、物件、事件,還標上Tags,聽說 Youtube 也有引進這技術?所以可以做到用關鍵字搜尋影片的場景、物件之類的還有標上出現時的影片時間點說引進不太正確,而是自行開發的同類功能
作者: GALINE (天真可愛CQD)   2017-10-16 13:35:00
https://cloud.google.com/vision/G社有拿圖片自動Tagging服務賣錢

Links booklink

Contact Us: admin [ a t ] ucptt.com