Fw: [新聞] 未來將有AI法官? 法界研究人工智慧導入

作者: chuo11 (KKK)   2020-09-13 19:03:21
※ [本文轉錄自 Lawyer 看板 #1VNVm0C6 ]
作者: chuo11 (KKK) 看板: Lawyer
標題: [新聞] 未來將有AI法官? 法界研究人工智慧導入
時間: Sun Sep 13 19:01:17 2020
未來將有AI法官? 法界研究人工智慧導入司法
https://news.ltn.com.tw/news/society/breakingnews/2946530
〔記者吳政峰/台北報導〕司法官學院15日舉辦「2019年『人工智慧對司法之影響及未來
發展』國際研討會」,討論AI導入司法的可能性,司法官學院院長蔡碧玉表示,AI在司法
運用層面上越來越廣泛,甚至有的國家開始開發AI法官,試圖審理小型訴訟案件,但其中
的倫理與黑箱問題,也是勢必面對的挑戰。
蔡碧玉指出,從媒體報導看到有國家開始開發AI法官,希望AI法官能代替人類處理小型訴
訟案件,讓人類法官能騰出時間;亦有美國的律師事務所運用IBM所開發的華生(Watson
)電腦所支援之AI律師ROSS,提供法律諮詢服務、蒐集大量文獻及案例、閱讀並分析大量
文件、搜尋可用證據,甚至是草擬契約、書狀等;國際間曾有討論將AI用於快速審查細節
、分析再犯率,判斷行為人能否具保、是否得以假釋或緩刑,甚至幫助法官做成判決。
但蔡碧玉也提出質疑,現有的法律規範對AI可能有所不足,當人類將事情交由AI進行運作
處理時,所衍生出來的法律責任將如何歸屬?AI透過機器學習的過程中,個資的蒐集與處
理,該如何規範及保護?如何解決識別資訊的隱匿問題?另外,AI是透過機器主動學習,
人們將難以理解其演算的過程,是否因此導致演算法的黑箱?在數據資料不夠全面、數量
不足時,是否造成誤導、偏見,甚至有歧視、不平等之問題?對於以規範自然人法律關係
為主的傳統法律,AI的發展將帶來難以預測的法律問題,該如何面對?這些都是法律人所
關切的課題。
受邀主講的IBM認知法律實務全球共同負責人Shawnna M. Hoffman-Chilrdess則表示,IBM
的華生電腦已經運用在辯論等領域,也支援AI律師ROSS,提供法律諮詢,但AI並不會取代
法律人,而是提供給法律人更多的判斷資訊,未來是AI的世代,也是第四次工業革命,而
伴隨而來的個資與隱私問題,將透過去中心化的區塊鏈降低風險、增加信任。
作者: jj0321 (JJ與你倒數唷)   2020-09-13 19:24:00
將軍 我會判你有罪
作者: www17010 (locat)   2020-09-13 19:46:00
從台灣的資料下去訓練只會有恐龍AI法官吧
作者: dreamnook (亞龍)   2020-09-13 19:53:00
應該會跑出很奇怪的判例(?
作者: kongyeah (^.^)   2020-09-13 20:04:00
加 判決.replace("可教化", ""); 就可以了
作者: Victor7809 (Victor7809)   2020-09-13 20:18:00
只覺得會有很多奇怪判決來污染訓練集
作者: OforU (待)   2020-09-13 20:30:00
覺得機器會判得更公正 該怎麼判就怎麼判 但法界不可能讓AI來判
作者: Csongs (西歌)   2020-09-13 20:50:00
異議!
作者: vi000246 (Vi)   2020-09-13 23:48:00
反正都不會判死刑 隨便啦
作者: superpandal   2020-09-13 23:52:00
接下來就有人想盡辦法攻略工程師 XDDD
作者: viper9709 (阿達)   2020-09-14 01:36:00
人類終於要聽命於機器了嗎
作者: purpleboy01 (紫喵)   2020-09-14 02:23:00
加入民意 就會汙染了
作者: jobintan (Robin Artemstein)   2020-09-14 08:04:00
不過與其拿稅金養法經匠,還不如拿去養相關設備與維護的data scientist還比較實際吶。
作者: odahawk (羊皮狼)   2020-09-14 08:06:00
出問題的是演算法卻整天想改硬體...
作者: allenxxx (fufuxxx)   2020-09-14 08:38:00
人寫的判決書你都看不懂了,AI寫的?
作者: aidansky0989 (alta)   2020-09-14 08:57:00
台灣電支都搞不定,難喔
作者: water744 (小O)   2020-09-14 09:36:00
全部可教化
作者: knives   2020-09-14 10:14:00
可能只要說出關鍵字,就會判定成可教化了
作者: NDark (溺於黑暗)   2020-09-14 11:48:00
岔個題。其實類似議題有強烈的需求。能解決痛點的團隊可能會有不錯的發展大家知道 因為疫情的關係 看醫生這件事 在各國變得困難而因為疫情網路上有各種自發社群分享疫情的情報其中就發現 上網求助諮詢看診 是存在硬需求不管是偏方 或是先確認要看哪一科,第一步驟都是先上網查問當然一定不能100%解決問題。這種行為並沒有佔醫生的便宜。而法律諮詢這邊已經有類似的服務在運作了。他的做法是上網付費諮詢,平台背後會有匿名的律師回答。這種服務 其實不只增加媒合 活絡市場 更能 減少資源浪費
作者: ptta (ptta)   2020-09-14 12:31:00
提供給演算法的樣本全都可教化 怎麼訓練出不可教化的判決?
作者: aidansky0989 (alta)   2020-09-14 13:42:00
重點在審閱文件,20年內不可能交給AI判決
作者: becca945 (頻果芽子)   2020-09-14 14:32:00
吸毒 精神疾病 手段不兇殘 通通可教化
作者: ruthertw (小葉老大)   2020-09-14 15:05:00
還遠的咧 光是女生說犯人逼她吹喇叭 AI就聽不懂了
作者: jej (晃奶大馬桶)   2020-09-14 17:31:00
35樓 這個教AI沒一兩次 他能夠比你更精確的了解什麼時候的喇叭 是你想像中的喇叭 還是真喇叭
作者: OforU (待)   2020-09-14 19:56:00
AI能做到分辨同詞 不同義 我以為是常識
作者: MonkeyCL (猴總召)   2020-09-14 23:43:00
先讓 AI 關在圖書館讀書考國考好嗎
作者: opencat (opencat)   2020-09-15 01:16:00
法官主觀意識決定判決結果 垃圾資料一 ai根本無法收斂吧
作者: goldflower (金色小黃花)   2020-09-15 09:56:00
可教化這個詞的權重值得商榷= =
作者: odahawk (羊皮狼)   2020-09-15 11:09:00
AI最多只能擔任書記官而已,各位鄉民被程式判刑會服氣嗎
作者: allen139443 ( ∩ д ∩ )   2020-09-15 14:36:00
ai吃到恐龍的垃圾判決訓練出來還不是一樣變恐龍
作者: maxsho (沉默的熊)   2020-09-15 17:27:00
證明終了有一集就是提到這個。因為檢查官利用ai的漏洞給了特意證據導致無辜的人被判成兇手。同樣的語句在不同口氣或是文化下意思可能就不一樣了,要讓ai能夠正確判斷不是容易的事
作者: ggttoo (中華隊加油!!!)   2020-09-16 11:38:00
請不要用台灣判例來訓練AI
作者: uncleben006 (uncleben006)   2020-09-18 18:53:00
啊你要怎麼知道哪些是正確資料?結案就是正確嗎
作者: kevinyin9 (kevinyin)   2020-09-21 16:53:00
用恐龍法官訓練集-> AI: 全部可教化
作者: kattte (誠實面對自己吧!)   2020-09-25 19:36:00
誰能接受被機器判決
作者: piggywu (piggy)   2020-10-19 23:49:00
法官不需AI..就是法官加入太多私人情緒,才以為要有AI法官

Links booklink

Contact Us: admin [ a t ] ucptt.com