成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能 正文
    發私信給奕欣
    發送

    6

    深度 | 人工智能的盲點在哪?

    本文作者: 奕欣 2016-10-18 09:39
    導語:自主智能系統在許多社會機構早已司空見慣,但我們卻無法找到真正能評估其持續性影響的方法。

    編者按:當我們都在關注人工智能對生活帶來的積極影響時,另一種擔憂的聲音正在產生:自主智能系統在許多社會機構早已司空見慣,但我們卻無法找到真正能評估其持續性影響的方法。本文提出了目前業界解決 AI 系統的社會和倫理學影響的三種方法,并提出了從社會系統分析入手的第四種方法,指出要關注人工智能在社會層面的意義。文章首發于Nature,作者 Kate Crawford 和Ryan Calo,雷鋒網作者老呂及何忞編譯,未經許可不得轉載。

    深度 | 人工智能的盲點在哪?

    芝加哥警察利用算法推測涉及槍案的嫌疑人,

    但事實證明這種方法效果不明顯

    Sanchez/Chicago Tribune/TNS/Getty

    白宮于本周發布了一份報告,闡述了它們對未來人工智能(AI)的看法。這份報告由來自西雅圖、匹茲堡、華盛頓和紐約的四個研究小組耗費三個月時間撰寫而成。

    在這份報告中,許多來自不同領域的世界頂尖思想家討論了 AI 如何改變我們的生活方式,其中包含大量的例子,生動地解釋了機器學習和其他 AI 技術在解決生活中復雜問題方面的巨大作用,涉及從皮膚的變化預測癌癥,到減少數據中心的能源消耗等多個方面。

    此外,報告還強調了眼下我們在 AI 研究上存在的主要盲點:自主智能系統在許多社會機構早已司空見慣,但我們卻無法找到真正能評估其持續性影響的方法。

    最近幾年,人類在人工智能領域取得了巨大的進步。相應的,來自多個學科的設計師和研究人員需要對 AI進行系統性的分析,他們必須評估出技術對社會、文化以及政治環境的影響。

    舉例來說,我們需要研究出 AiCure 應用是如何改變醫患關系的,這款應用可以追蹤病人是否堅持吃藥并將數據傳給醫師。同時,此類技術的使用還能通過對歷史數據的分析來預測犯罪高發地帶,減少警方對邊緣社區的警力濫用。此外,我們還需找出為何出手闊綽的投資者與低收入的借貸者總是會被區別對待。

    老生長談的“奇點降臨”

    “人們總是擔心電腦變聰明后會接管世界,但現實問題是它們在相當愚蠢時已然統治了全世界。”這是計算機科學家 Pedro Domingos 在其 2015 年的著作《The Master Algorithm》中給出的經典論述。許多研發人員也認為 AI 的發展正處于初級階段,技術奇點還未到來,他們正推動 AI 系統(相對未經測試的)進入各個社會機構。

    正是由于 AI 研發人員的不斷努力,此類系統才成了醫師們指導診斷的利器。此外,法律機構也利用 AI 給客戶提建議,幫助他們打贏官司。金融機構則可利用 AI 找出貸款放給誰最安全,而雇主則能通過 AI 在應聘者中找出綜合實力最強的人。

    分析師認為未來 AI 系統的適用范圍將得到大幅擴展,其經濟價值更是高達數十億美元。而 IBM CEO 更是看好該技術的發展,她認為未來十年 AI 系統中蘊含著價值 2 萬億美元的新機遇。當然,這一切都只是初步預測,畢竟我們對如何衡量 AI 的價值還沒有形成共識。

    深度 | 人工智能的盲點在哪?

    CB Insights 的研究顯示,AI領域的投資呈逐年上升趨勢

    CB Insights

    許多人認為,AI 在做預測和指導性決策時沒有人類明智,但工程師卻認為 AI 能找出人類在決策時存在的偏見和傲慢。不過,它也不是萬能良藥。至少在當下,AI 的缺點依然會讓它在種族、性別和社會經濟背景方面犯錯,而這些因素本就是人類做決策時的軟肋。

    2013 年的一項研究顯示,在谷歌搜索典型的黑人名字,搜索結果中出現犯罪記錄搜索的可能性比白人名字高 25%。在另一例與種族有關的案例中,非營利機構 ProPublica 發現,法庭普遍使用的算法也存在種族歧視,在它眼中,黑人罪犯再次入獄的幾率是白人的兩倍。

    三種工具

    如何避免這種影響呢?目前,解決 AI 系統的社會和倫理學影響的有三種主流模式:服從模式、價值觀設計、思維實驗。這三者都很有意義,但是不論是單獨為人們所用,或是三者齊頭并進,都不能有效解決這個問題。

    部署和執行方法(deploy and comply)

    通常情況下,企業或者其他組織采取基本的步驟,堅持一系列行業最佳實踐或是法律義務,來躲避政府或媒體的監督。這種方法可以得到短期利益。比如說,2015 年谷歌系統錯誤地將一對美籍非裔夫妻識別為大猩猩后,及時調整了他的圖像識別算法。公司還提出了想法,將一種“紅色按鈕”引入其 AI 系統中,當工程師發現系統不對勁時,可以按下按鈕防止失控。

    同樣地,Facebook 因為將這張越南小女孩 Kim Phúc 逃離燃燒彈襲擊的照片認定為裸體兒童照片并予以屏蔽,遭到了公眾的強烈譴責。而就在上個月,包括微軟、亞馬遜和 IBM 在內的幾家領先的 AI 公司,達成合作伙伴關系,意圖提升公眾的理解,并以此設立一些公共的標準。

    “部署和執行”方法盡管可以是活躍的點對點模式,但如果他們缺少充足的批判聲音和獨立的觀點貢獻者,那么該行業的努力仍舊存在進步空間。新的 AI 合作伙伴關系正在邀請倫理學家好社會組織者們的參與。但是人們的關注點依然在于,企業是否可以相對自由地在公眾中測試他們的 AI 系統,而無需持續地研究短期或中期的影響。

    價值觀設計方法(Values in design)

    多虧了技術中倫理道德方面設計的先驅們,包括極有影響力的學者 Batya Friedman 和 Helen Nissenbaum 的貢獻,現在的研究者和企業都執行了諸如價值敏感設計或“有責任的創新”的方法來定義可能涉及的利益相關者,并對他們的價值觀進行界定。焦點小組或其他研究手段被用來建立人們關于個人隱私、環境問題等等的觀點。無論設計的是 App 還是無人車,這些未來用戶的價值觀都應滲透進技術的設計中。AI 系統的開發者們應該對這些方法加以重視。

    不過,這些工具常常有一個前提假設:這個系統一定會被設計出來。他們無法幫設計者、政策制定者或者整個社會回答,某個系統是否應該被設計出來?某個基礎設施的系統原型是否太過于初級、不夠可靠而無法作為基礎設施(比如醫院系統或法庭系統)?

    深度 | 人工智能的盲點在哪? 

    哮喘患者被一個預測肺炎的 AI 系統錯誤地評為低風險等級

    Craig F. Walker/Denver Post/Getty

    思維實驗方法(Thought experiments)

    過去的幾年中,各種假設情境涌現,成為了公眾討論 AI 社會影響的爭論熱點。

    最熱門的討論是關于人類設計出的高級智能系統最終統治或毀滅了人類自己的可能性。另外,還有一個從1967 年就開始的相關思維實驗——電車難題也獲得了新生,這個場景提出了關于責任和罪行的問題。在該問題中,一個人既可以讓一列正在行駛的電車碾壓過五個正在工作的人,也可以是電車變道沖向另一條只有一個人的路。很多評論家把這個假設的場景放在自動駕駛汽車中考慮,他們認為汽車應該自動做出包含有道德要求的選擇。

    與機器人末日相比,無人車發生“謀殺選擇”的可能性提供了一種更為狹窄的道德推理框架。電車問題為我們解決更廣泛的社會問題提供了一些方便的指導:比如大量對自動汽車而非對公共交通的投資的價值問題;在無人車被允許上路前,安全性能應該有多高;(我們應該用什么工具來定義安全性?)、無人車在交通擁堵、環境和就業問題上的潛在影響有哪些等問題。

    社會系統分析方法(Social-systems analysis)

    我們相信誠然還需要第四種方法。一種實踐的、可以廣泛應用的社會系統分析法,它可以考慮到 AI 系統對所有方面的可能影響,并且能同時包括在每一個階段中的社會影響,包括概念階段、設計階段、部署階段和調控階段。

    在第一階段,政府部門和行業等大范圍的研究者們需要開始調查大眾的信息、財富和基本服務的獲取渠道與 AI 系統的訓練數據之間有什么區別,如何匹配。

    用芝加哥、伊利諾斯的“熱度地圖”(heat maps)識別那些人更容易卷入槍擊事件的算法為例,上個月發表的一份研究表明,這種地圖是無效的,他們擴大了特定人群的可能性,吸引了更多警力,但是卻沒有減少當地的犯罪率。

    社會系統方法可以在“熱度地圖”中考慮到當地社會和警局的歷史數據。這可能要求對社區成員的問詢和對警察針對社區治安積極或消極反饋的權衡。這也可能意味著要將監督委員會和法律機構的發現考慮進去。這種社會系統分析法還會要求系統的風險和報酬要保持平衡。所以在這個案例中,警方使用相似的技術來識別官員們誰可能有不正當行為(比如暴力)。

    在另一個例子中,2015 年的一份研究表明,應用于預測醫院的哪個病人會得肺炎的機器學習技術在很多情形中都運行良好。但是它卻犯了一個嚴重的錯誤:盡管一些哮喘病人情況危急,它仍然指導醫生將這些病人送回了家。因為通常醫院會自動將哮喘病人送去重癥監護病房,所以在系統被訓練的數據記錄中,這些病人很少出現在“需要后續護理”的分類里。使用社會系統分析法,我們就需要將醫院治療、保險政策等隱形因素考慮其中,適當地調整患者的病例記錄。

    社會系統分析法可以讓系統回答一些提問:比如自身是如何運轉的?金融咨詢者們曾經在應用機器學習時受到限制,因為他們的客戶總是希望他們回答為何做出某個決定。但是到目前為止,已經受到 AI 算法限制的個體,還不可以像人類一樣回答為什么的問題。

    社會系統分析法在各種學科中,需要重點關注心理、法律、社會學、人類學和科學技術領域的研究。 該方法必須開始研究社會的、政治的和文化上的價值觀是如何與技術發展和科學研究相互影響的。與單純只包含計算機科學和犯罪學的思考相比,我們只有在對 AI 影響社會層面提出更加廣泛的問題,才能夠對人工智能的影響產生出更加完整而和諧的理解。

    未來還是有希望的。像下一個月在紐約舉行的研討會“機器學習的公平性、責任感和透明度”研討會就是一個很好的例子。但是贊助者們——包括政府、基金和企業,都應該為我們描述的 AI 發展方法付出更多的努力才行。

    人工智能代表了一種技術層面上的文化轉變。這跟歷史上的很多技術對文化的重大影響轉折點很像,比如印刷術的使用、火車的開通,等等。自動化的系統正在改變工作室、街道和學校。我們需要保證,在技術逐漸滲透進我們日常生活的基礎設施之前,這些改變是對我們有益的。

    via nature

    推薦閱讀:

    谷歌 DeepMind 的可微分神經計算機 DNC 怎么樣?看 Facebook AI 研究員田淵棟、賈揚清怎么說

    CCL 2016| 中科院張鈸院士:后深度學習時代的計算語言學

    雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

    深度 | 人工智能的盲點在哪?

    分享:
    相關文章
    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說