[新聞] 亞馬遜廢除招聘分析系統 因為AI會歧視女

作者: Reewalker (報告饅頭班長不夠)   2018-10-10 20:30:13
※ [本文轉錄自 Reewalker 信箱]
作者: paericsson (pa) 看板: Gossiping
標題: [新聞] 亞馬遜廢除招聘分析系統 因為AI會歧視女
時間: Wed Oct 10 13:12:50 2018
1.媒體來源:
※ 例如蘋果日報、奇摩新聞
自由
2.完整新聞標題:
※ 標題沒有寫出來
作者: getbacker (工作十年了啊.......)   2018-10-10 20:48:00
男性沒有生理假產假,比較能接受加班到半夜或獨自出差到開發中國家,硬要男女錄取一樣多只是齊頭式平等
作者: Luos (Soul)   2018-10-10 20:48:00
正確的AI
作者: aminoyoyo (YOYOYO)   2018-10-10 20:52:00
真AI
作者: Murasaki0110 (麥當勞歡樂送)   2018-10-10 20:54:00
過去收集的都是帶有偏見的data 當然會學歪阿
作者: f496328mm (為什麼會流淚)   2018-10-10 20:58:00
好奇AI團隊為什麼無法解決這問題,就算是imbalance data,也可以做調整,不然就是修改loss function,再不然,最後predict結果,再去篩一半男一半女,或是分兩個model,男女用不同model
作者: MrZiXu (子虛先生)   2018-10-10 21:07:00
亞馬遜傻了嗎?公司就是需要男性啊
作者: wake7078 (KK)   2018-10-10 21:29:00
AI:幹 我做數據分析 幾十年的數據結果就是這樣
作者: a9564208 (YOU OUT!!)   2018-10-10 21:29:00
男女用不同model不怕女權團體抗議?
作者: wake7078 (KK)   2018-10-10 21:30:00
AI:結果現在說我仇女 那過去的數據是什麼
作者: kmaster (救球是一門藝術)   2018-10-10 21:35:00
這也可以說整個體制對女性仍是不友善,存在偏見
作者: willism (hpc5)   2018-10-10 21:53:00
看國內新聞智商會下降,更何況一堆人連國內新聞都看不懂...隱含意思就是以“近10年錄取人數”來看,亞馬遜錄取的女性員工少的可憐,所以資料餵給AI,AI自然把性別=女性的權重調低。而去看reuter的新聞,裡面還寫到只要履歷內提到“women' s”,AI就扣你權重...
作者: monocero (食人獸)   2018-10-10 21:58:00
依照亞馬遜那可能的生產線情形,餵出來的結果不意外
作者: willism (hpc5)   2018-10-10 21:58:00
AI偏見(重現人類偏見)的新聞不曾少過,什麼黑人多罪犯,或護士就女性之類的,這新聞不過滄海一粟
作者: furio (void)   2018-10-10 22:08:00
搞不好統計結果就是這所謂"偏見",不看數據就說人偏見這....不知道這算不算偏見
作者: n791116 (天母金城武)   2018-10-10 22:10:00
在說廢話 理工科系男多於女 工程師自然女少不過台灣中文系也可以當工程師應該是例外
作者: longlongint (華哥爾)   2018-10-10 22:13:00
不合理 feature 不填性別就能解決的事情新聞應該寫錯了
作者: TWLAB (AlphaGO)   2018-10-10 22:14:00
AI認證
作者: donkilu (donkilu)   2018-10-10 22:20:00
Machine learning的無解課題啊lol
作者: lovebridget (= =")   2018-10-10 22:26:00
當兵 當兵不能說實話的
作者: ciplu   2018-10-10 22:39:00
輸入怎樣的資料 就會輸出怎樣的結果
作者: labiron (labiron)   2018-10-10 22:49:00
就統計數據自然產生的結果 以後AI也要學會政治正確不然會變成AI騎士
作者: o760823 (鋒)   2018-10-10 22:56:00
仇女
作者: raku (raku)   2018-10-10 23:30:00
AI認證的
作者: poeoe   2018-10-10 23:35:00
專業AI
作者: OxFFFF (65535)   2018-10-10 23:55:00
扯資料男>>女train起來會有偏差的顯然才是不會train。如果這堆女性都是表現前20%即使資料少,AI分析結果也會是女性優於男性資料不對稱的解決方法很多好嗎,只要分佈合理就沒問題
作者: aaa40303 (管管)   2018-10-11 00:50:00
問題在取樣資料庫的偏異數據
作者: alen82515 (猛哥神信)   2018-10-11 01:19:00
就一間公司發現他們的AI可能會給女性較低的分數,然後有人自己去推測那個AI是怎麼寫的,還罵其他人白痴,到底是...?
作者: blue237 (換了位置就換了腦袋)   2018-10-11 01:22:00
寫AI的忘記加入現實模組[(長相+胸部)>(經歷+實力)]
作者: willism (hpc5)   2018-10-11 03:07:00
網友說資訊不對稱的解決方法很多,說啥女性如果表現前20%,就算人少,被AI投票也會拿高分!這種人是不知道個人能力(表現)是常態分佈的嗎,在這種狀況下,人少就是劣勢...就算拿掉性別,男女還是有很多不一樣,ex.社團活動、科系、興趣等
作者: OxFFFF (65535)   2018-10-11 06:55:00
還以為想說什麼,結果扯一堆跟target無關的... xD
作者: Sadan (Danny)   2018-10-11 07:09:00
女性本身表現普通就差男性一截啊
作者: willism (hpc5)   2018-10-11 07:30:00
那是features好嗎,最好和target無關啦
作者: OxFFFF (65535)   2018-10-11 07:39:00
是feature就會拿去當input做normalize啊,那不就是說這分析資料已經考慮你原本說不考慮的東西了嗎?資料數量不對稱跟model input根本兩件事 = =,還是你覺得Amazon資料「分佈」會不夠豐富? 數量問題能解決,資料的分佈問題才會影響結果
作者: questionboy (問題男孩)   2018-10-11 12:33:00
我是覺得input的資料沒有性別 而ai跟據data train出來選有該技能的人多是男性 新聞導因為果 deer被新聞誤導了吧
作者: a0916665106 (班班)   2018-10-11 15:19:00
機器學習 乃資料之統計 歸納之結果 由此可知推文很好笑欸 亞馬遜工程不會解data 偏誤還3小的問題嗎 你們想的到的他們會想不到嗎
作者: ljmk1246 (ljmk1246)   2018-10-12 00:19:00
啪啪啪啪 打臉女權廢物
作者: doranako (真愛無限)   2018-10-12 00:27:00
不愧是AI,像人類
作者: mangoldfish (大眼笨金魚)   2018-10-12 10:57:00
光是能不能出差,就卡死多數女性,就算是國外多數還是女性在照顧孩子
作者: kaworutb (QQa)   2018-10-13 18:17:00
這系統正確分析啊

Links booklink

Contact Us: admin [ a t ] ucptt.com