成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    國際 正文
    發私信給Misty
    發送

    1

    致程序員:算法為何帶有偏見?

    本文作者: Misty 2016-06-27 10:26
    導語:我們總是希望,算法比人類更客觀,然而......

    致程序員:算法為何帶有偏見?

    現如今,由算法和人工智能驅動的科技越來越多地進入到我們生活,而現在,我們面臨著一個相當諷刺的問題:這些程序的立場是非中立的嗎?它們總是帶有一些偏見嗎?誠然,答案是肯定的。

    最近,Facebook的“流行話題”列表非常騷動,其反應出的對自由黨的偏見昭然若揭。之后,美國政府要求Facebook給出一個官方的解釋。本周,Facebook COO Sheryl Sandberg表示Facebook將會開始訓練員工,來辨別和控制他們的政治傾向。

    其實,Facebook的做法正是Kickstarter的前數據執行官Fred Benenson所說的"數學洗腦”:我們讓諸如Facebook的算法程序變得完全客觀、完全中立,是因為算法核心基于數學。

    而現如今的算法之所以懷有偏見,很大程度上是因為很多程序員(特別是機器學習程序員)為男性。在最近《彭博社》發布的文章中,微軟研究員Margaret Mitchell呼吁更多女性參與到編程中來。

    哈佛教授 Latanya Sweeney表示:在一次關于谷歌AdSense廣告的研究中,他在搜索了白人典型人名(如Geoffrey, Jill, Emma)和黑人典型人名(如DeShawn, Darnell, Jermaine),發現含有“逮捕(arrest)”這個字眼的詞語廣告時,出現的黑人人名超過80%,但出現的白人人名只有不到30%。

    Sweeney擔心谷歌的這種廣告技術會帶來種族偏見,讓黑人在比賽、工作、約會等情況下比白人略遜一籌。

    同時,借貸和信用等領域一直以來被冠以種族偏見的帽子,因此必須在此敏感問題上分外小心。

    在線借貸公司ZestFinance在建立之初就認同這樣一種思想:機器學習項目可以讓那些被認為是“有價值的借貸者”的數量增多,從而會陷入借貸歧視的危險境地。而為了阻止這種情況發生,ZestFinance已經建立了某種特定工具來測試結果。

    不過,這種情況的危險之處在于:這種不言而喻的偏見(不僅存在于算法程序中,還存在于其中的數據中)可以一不小心就讓任何程序編程腹黑的偏見者。對于不能分別程序復雜性的用戶來說,要弄清程序是否是公平的,是非常困難的。

    Benenson在最近Technical.ly Brooklyn舉行的問答大會上表示:“算法和數據驅動產品總是會反映其建造者的設計選擇,如若程序員們本身帶有偏見,那么編寫出來的程序帶有偏見就不足為奇了。”

    Via:MIT Technology Review

    雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

    分享:
    相關文章

    編輯

    歡迎合作,歡迎來撩。 微信號:Misty_Yoong
    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說