歐盟和美國采取行動解決人工智能倫理問題


歐盟的AIA將是世界上第一個對人工智能的橫向監管。
美國和歐盟被數千英里的大西洋所分割,它們監管人工智能的方法同樣廣泛。形勢也是動態的,美國方面的最新變化將于今天推出 - 大約在歐盟采取重大舉措七周后。
大西洋兩岸的賭注都很高,其影響與確定監禁判決和選擇誰被雇用一樣不同。
歐盟的《人工智能法案》(AIA)于12月6日獲得歐盟理事會批準,最早將于3月由歐洲議會審議,該法案將在基于風險的層次結構下監管人工智能應用、產品和服務:風險越高,規則越嚴格。
如果獲得通過,歐盟的AIA將成為世界上第一個橫向的AIA,涵蓋所有行業和應用。人工智能的監管.
相比之下,美國沒有專門針對 規范人工智能的使用,而是依靠現有的法律、藍圖、框架、標準和法規,這些法律、藍圖、框架、標準和法規可以拼接在一起,以指導人工智能的道德使用。然而,雖然企業和政府可以受到框架的指導,但它們是自愿的,不會為那些在使用人工智能對付他們時受到傷害的消費者提供任何保護。
除了聯邦行動的拼湊之外,地方和州政府正在制定法律來解決就業中的人工智能偏見,如紐約市和整個加利福尼亞州,以及科羅拉多州的保險。新聞媒體上沒有出現任何擬議或頒布的地方法律來解決在監獄中使用人工智能或監獄判決的問題。然而,在2016年,威斯康星州男子埃里克·盧米斯(Eric Loomis)起訴該州六年監禁未成功,該判決部分基于人工智能軟件。 《紐約時報》報道.Loomis辯稱,他的正當程序權利受到侵犯,因為他無法檢查或質疑軟件的算法。
“我想說我們仍然需要聯邦政府的基礎,”DataRobot的全球人工智能倫理學家Haniyeh Mahmoudian告訴EE Times?!皣@隱私的事情,幾乎每個美國人都有權享有,這是聯邦政府應該照顧的事情。

Elham Tabassi(來源:NIST信息技術實驗室)
最新的國家指南預計將于今天由美國國家標準與技術研究院(NIST)發布。
NIST的自愿框架旨在幫助美國組織管理可能影響美國個人,組織和社會的AI風險。該框架通過將可信度考慮因素(例如可解釋性和減輕有害偏見)納入人工智能產品、服務和系統來實現這一目標。
“在短期內,我們想要做的是培養信任,”NIST信息技術實驗室參謀長Elham Tabassi說?!拔覀兺ㄟ^了解和管理人工智能系統的風險來做到這一點,以便它可以幫助保護公民自由和權利,提高安全性,同時為創新提供和創造機會。
從長遠來看,“我們談論框架是裝備人工智能團隊,無論他們主要是設計,開發或部署人工智能的人,從考慮風險和影響的角度思考人工智能,”NIST研究科學家Reva Schwartz說。

Reva Schwartz(來源:NIST信息技術實驗室)
在NIST框架發布之前,喬·拜登總統領導下的白宮于10月發布了“人工智能權利法案藍圖”。它列出了五項原則來指導人工智能的道德使用:
系統應該是安全有效的。
算法和系統不應該歧視。
人們應該受到保護,免受濫用數據行為的侵害,并控制他們的數據的使用方式。
自動化系統應該是透明的。
選擇退出人工智能系統以支持人為干預應該是一種選擇。
拜登的輕監管方法似乎遵循 輕觸調節 受到他的前任的青睞。
不要等待立法
美國沒有人工智能法律,因為技術變化如此之快,以至于立法者無法確定足夠長的時間讓他們制定立法,律師事務所DLA Piper的合伙人Danny Tobey告訴EE Times。

丹尼·托比(來源:歐華律師事務所)
“每個人都在制定框架,但很少有人會制定你可以計劃的硬性規定,”他說?!拔覀儽怀兄Z了人工智能權利法案,但我們得到了一個沒有法律效力的'人工智能權利法案藍圖'。
托比認為,全球監管提案圍繞第三方審計和影響評估保持一致,以測試基于人工智能的應用程序的安全性、非歧視性和道德人工智能的其他關鍵方面。他說,這些是公司已經可以使用的工具。
“解決方案是讓公司甚至在立法最終確定之前就開始測試這些預期標準的人工智能技術,旨在構建面向未來、合規的人工智能系統,以預測即將到來的法規,”他說。
歐盟至少有一家公司與托比的想法一致:總部位于荷蘭的恩智浦半導體公司已經開發了自己的公司。 人工智能倫理倡議.
美國需要特定的人工智能法律嗎?
難道美國已經有了保護公眾免受人工智能不道德使用所需的法律嗎?
9月,美國證券交易委員會主席加里·根斯勒(Gary Gensler)在麻省理工學院人工智能政策論壇峰會上談到了這個問題,探討了圍繞人工智能部署的政策挑戰。
“通過我們的立法機構,我們通過了保護公眾的法律,”他說。“這是安全,健康,投資者保護,金融穩定。這些仍然是久經考驗的真正公共政策。
他說,與其認為我們需要一部新法律,因為我們有一個新的工具——人工智能——立法者和其他人應該關注現有法律的適用方式。
美國證券交易委員會著眼于現有的投資者保護法,而銀行業的必然結果是《平等信貸機會法》?!豆阶》糠ā繁Wo人們在申請抵押貸款時免受歧視。
自我監管是答案嗎?
Diveplane的領導者是人工智能驅動的商業和國防軟件開發商,他們想要拜登的藍圖,歐盟的AIA等等。

邁克·卡普斯(來源:潛水飛機)
“這將有助于保護消費者,”Diveplane的總法律顧問兼首席法務官Michael Meehan告訴EE Times?!叭藗冋J為這與公司可能想要的背道而馳。但事實是,包括潛水飛機在內的大多數公司都需要指導。
米漢指出,這兩個政府都沒有在人工智能法律或法規中規定“安全港”來降低用戶的風險。
安全港是法律中的一項規定,如果滿足某些條件,則給予保護,免于懲罰或承擔責任。例如,如果一個正確實施的、基于實例的人工智能貸款審批系統檢測到偏見,它可以標記問題以供人工審查。
Diveplane首席執行官邁克·卡普斯(Mike Capps)也歡迎監管,但他也是該行業自我監管的支持者。
為了說明原因,他指出了美國的患者隱私法。1996 年健康保險流通與責任法案 (HIPAA) 為從醫療記錄中擦除識別信息的用戶提供了一個安全港。不幸的是,將清理過的數據庫與另一個數據寶庫交叉引用可以幫助梳理出應該匿名的人的身份。
這可能是20世紀立法者沒有預料到的。
“如果你對當今計算機的工作方式設定一些硬性的東西,你就沒有能力適應......當你寫它時不存在的技術,“卡普斯說。
根據其網站,這種想法促使Diveplane共同創立了數據與信任聯盟,這是一個非營利性聯盟,其成員“學習,開發和采用負責任的數據和人工智能實踐”。卡普斯是聯盟領導委員會的成員,與NFL,CVS Health和IBM等實體的代表一起。
該小組正在制定道德人工智能的標準。
“這些規則將繼續改變和發展,因為它們必須這樣做,”卡普斯說?!拔視阉鼘懗煞蓡?不,我肯定不會,但我肯定會把它看作是一個例子,說明如何建立一個靈活的系統來最大限度地減少偏見。
Mahmoudian表示,隨著新數據的出現,歐盟AIA有語言重新審視分配給申請的風險級別。她說,這在Instagram這樣的案例中很重要,例如,Instagram曾經被認為是無害的,但在發病幾年后被證明會對青少年的心理健康產生負面影響。
本文最初發表于 電子電氣時報.
Ilene Wolff是一名自由撰稿人,在技術和工程方面擁有豐富的經驗。她為各種出版物做出了貢獻,包括《智能制造》雜志、《制造工程》雜志、《安娜堡觀察家》、《DBusiness》雜志和《克萊恩的底特律商業》。
責任編輯:David
【免責聲明】
1、本文內容、數據、圖表等來源于網絡引用或其他公開資料,版權歸屬原作者、原發表出處。若版權所有方對本文的引用持有異議,請聯系拍明芯城(marketing@iczoom.com),本方將及時處理。
2、本文的引用僅供讀者交流學習使用,不涉及商業目的。
3、本文內容僅代表作者觀點,拍明芯城不對內容的準確性、可靠性或完整性提供明示或暗示的保證。讀者閱讀本文后做出的決定或行為,是基于自主意愿和獨立判斷做出的,請讀者明確相關結果。
4、如需轉載本方擁有版權的文章,請聯系拍明芯城(marketing@iczoom.com)注明“轉載原因”。未經允許私自轉載拍明芯城將保留追究其法律責任的權利。
拍明芯城擁有對此聲明的最終解釋權。