Re: [新聞] 司改要陪審制還參審制? 民調結果一

作者: wizardfizban (瘋法師)   2020-07-19 06:01:18
※ 引述《gogen (gogen)》之銘言:
: 只要是人,就會有偏差,就會有看法見解,認知差異,與失誤
: 還有就是會因跟一般民眾的認知差異,形成代罪羔羊
: 我是認為可以導入AI輔助判決,法官只需根據事實認定有無,客觀的背景資料與適用法條
: ,由AI判定,這樣能讓全民的認知是公平
: 同樣的事實與背景資料,會有相同的判決
: 當然AI判案,可能要有一定的學習時間,也需有再確認機制,避免電腦bug
: 以現在的AI技術,要設計來判案應該不難
: 當然,這可能有爭議,但這是一條必走的路
AI沒你想的那麼好。
簡單一個問題,那就是誰教AI?
說白點就是AI的邏輯和判定模式還不是人類決定的,所以誰能決定AI的行為不就能控制AI
嗎?最終還不是回到人身上。
另外AI就不會取巧或出錯嗎?
之前才好幾個例子。
矽谷超夯臉部辨識 AI,竟對種族歧視更嚴重
https://technews.tw/2020/06/21/ai-racial-discrimination/
AI 差別待遇的問題,其實已經出現在美國。根據一位麻省理工媒體實驗室的資料科學家
喬伊‧波拉維尼(Joy Buolamwini)所做的研究,她發現由微軟、亞馬遜與 IBM 等公司
研發出的臉部辨識 AI 演算法,對於判讀白人,以及黑人與女性竟然出現了差別待遇。
也就是判讀白人的正確度比較高,判讀黑人與女性的正確性則低。雖然這個漏洞並不全是
人為刻意造成,它造成的衝擊,可能比街頭上歧視黑人的警察更嚴重。
亞馬遜 AI 在履歷篩選中歧視女性?AI 犯錯不是第一次了
https://technews.tw/2018/10/17/ai-discrimination-mistakes/
所以沒那麼簡單啦!
作者: gogen (gogen)   2020-07-19 06:04:00
謝謝指導
作者: arrenwu (鍵盤的戰鬼)   2020-07-19 06:07:00
AI就是會取巧才夯啊 不取巧的都是些算不完的
作者: wmtsung (Tsung)   2020-07-19 06:14:00
就跟之前亂玩AI回話機器人一樣,最後AI學了一堆垃圾話

Links booklink

Contact Us: admin [ a t ] ucptt.com