AI倫理的邊界在哪里?谷歌完成AI項目倫理審查 AI用法引爭議

2018-12-20 17:47:13 來源:互聯網作者:佚名 人氣: 次閱讀 642 條評論

AI原則應該如何應用必須深思熟慮,當原則發生沖突時如何做出權衡,以及如何在給定情況下降低風險等。...

  今年6月,谷歌繼微軟、Facebook和其它公司之后,公布谷歌人工智能工作七項原則。(1)必須對社會有益,(2)避免創建或加強偏見,(3)建立和測試安全,(4)負責的人,(5)把握隱私設計原則,(6)堅持高標準的科學卓越,和(7)適用于符合所有原則的用途。

  6個月后的今天,它就其執行這些指導方針的努力跟進了最新進展。谷歌負責全球事務的高級副總裁肯特·沃克(KentWalker)在一篇博客文章中表示,已經建立一個評估新項目、新產品和新交易正式審查架構,目前已完成100多項審查。一些人已經決定修改視覺語音識別研究,推遲通用面部識別等技術商業應用。

Google AI
Google AI

  沃克說:“AI原則應該如何應用必須深思熟慮,當原則發生沖突時如何做出權衡,以及如何在給定情況下降低風險等。”

  谷歌AI倫理審查團隊由研究人員、社會科學家、倫理學家,人權專家、政策和隱私顧問,法律專家,社會科學家們處理初始評估和日常操作,第二組高級專家從一系列學科在Alphabet-Google的母公司提供技術、功能和應用專業知識。一個由高管組成的委員會負責處理更復雜和困難問題,包括影響谷歌產品和技術的決策。

  最近,谷歌因為Maven項目而受到批評。Maven是五角大樓一個有爭議研究項目,它利用人工智能提高軍用無人機目標識別能力。根據Maven項目合同,它向五角大樓提供了開源AI框架TensorFlow。它還計劃建立一個類似谷歌地球監視系統,允許國防部分析人員和承包商點擊建筑物、車輛、人群和地標,查看與之相關的一切。谷歌的參與促使數十名員工辭職,另外4000多人簽署了一封公開反對信。今年夏天,這封信促使谷歌起草了一份內部道德政策,指導谷歌參與未來軍事項目。

Google
Google

  準確地說,谷歌并不是唯一的一家有爭議人工智能應用而受到批評公司。

  今年夏天,亞馬遜將Rekognition,一種基于云計算的圖像分析技術,通過亞馬遜網絡服務部門提供給佛羅里達州奧蘭多市和俄勒岡州華盛頓縣執法部門。亞馬遜對美國公民自由聯盟提出了質疑。在一項準確性測試中,Rekognition公司證明,當它從一個公共來源提供了2.5萬張臉部照片,并將其與國會議員的官方照片進行比對時,錯認了28張罪犯。

  今年9月,Intercept的一篇報道透露,IBM與紐約市警察局合作開發了一種系統,允許官員根據膚色、頭發顏色、性別、年齡和各種面部特征搜索人。通過使用其提供大約50個攝像頭拍攝的數千張照片,人工智能學會了識別衣服顏色和其他身體特征。

您可能感興趣的文章

相關文章