核心提示:歐洲議會當天投票決定禁止實時遠程生物識別技術,如不能在公共場合進行實時人臉識別,并對ChatGPT等生成式人工智能工具增加更多安全控制措施,提出新的透明度要求,以確保人工智能的研發和應用符合歐盟權利和價值觀。
歐盟《人工智能法案》進入最終談判階段
14日,歐洲議會全體會議表決通過了《人工智能法案》授權草案,該法案進入歐盟立法嚴格監管人工智能技術應用的最終談判階段。
歐洲議會當天投票決定禁止實時遠程生物識別技術,如不能在公共場合進行實時人臉識別,并對ChatGPT等生成式人工智能工具增加更多安全控制措施,提出新的透明度要求,以確保人工智能的研發和應用符合歐盟權利和價值觀。
據歐洲議會網站消息,歐洲議會“為制定史上首部人工智能法案已經做好談判準備”。按照立法議程,歐洲議會將就這一授權草案與歐盟委員會和成員國進行“三方”談判,歐洲立法者希望在今年年底前就法案的最終版本達成共識。
今年5月,歐洲議會內部的市場委員會和公民自由委員會通過歐盟委員會于2021年4月提出的《人工智能法案》提案的談判授權草案。歐洲議會聲明,這部提案如正式獲得批準,將成為全世界首部有關人工智能的法規。
該法案將適用于在歐盟境內將人工智能系統投放市場或投入使用的實體(無論該實體是在歐盟境內還是在第三國)、在歐盟境內使用人工智能系統的實體以及在第三國使用人工智能系統但系統的輸出用于歐盟境內或對歐盟境內人員產生影響的實體。
該法案草案的一個突出特點是注重基于風險來制定監管制度,以平衡人工智能的創新發展與安全規范。草案將人工智能風險分為不可接受的風險、高風險、有限的風險和極小的風險四級,對應不同的監管要求。其中高風險人工智能的使用必須受到嚴格監管,系統提供者和使用者都要遵守數據管理、記錄保存、透明度、人為監管等規定,以確保系統穩定、準確和安全。對于違反規定者,草案設定了最高3000萬歐元或全球年營業額6%的罰款。
最新草案嚴格禁止對人類安全造成不可接受風險的人工智能系統,包括部署潛意識或有目的操縱技術、利用人們弱點或用于社會評分的系統,并擴大了人工智能高風險領域的分類,將對人們健康、安全、基本權利或環境的危害考慮在內。草案還要求人工智能公司對其算法保持人為控制,提供技術文件,并為“高風險”應用建立風險管理系統,還針對ChatGPT等生成式人工智能設立專門監管制度。每個歐盟成員國都將設立一個監督機構。
此外,引進監管沙盒機制以管控風險和促進創新,在人工智能系統入市或投入使用前,對人工智能系統進行開發、測試和驗證降低風險。最新草案文本還提出,這一機制同樣被允許用于在現實條件下測試創新人工智能,以鼓勵人工智能企業持續創新。
清華大學自動化系教授陶建華在接受記者采訪時說,歐盟試圖建立一個統一的人工智能法律監管框架,是全球人工智能發展進程中一個重要的標志性事例。其對人工智能進行有效法規約束的探討和嘗試都會產生全球性的影響,可能引發越來越多的國家嘗試跟進相關法規的探索。
競天公誠律師事務所合伙人袁立志認為,歐盟推動人工智能立法,有利于保護基本人權、維護歐盟在數字主權和科技領域的領導地位,并通過這樣一部綜合性立法搶占全球人工智能監管先機。但其本身具有局限性。它采用的是橫向立法,并非針對特定人工智能應用領域,而是試圖把所有人工智能都納入監管范圍,在執行層面將面臨大量的解釋問題。
陶建華指出,歐盟并未就人工智能技術可能會給人類帶來什么樣的影響形成共識。從辨證的角度看,人工智能既能造福和服務人類,但如若用之不善,也會給人類帶來威脅或傷害。因此,如何平衡創新和約束是歐盟立法面臨的一個非常重要的挑戰。但在追求創新和管控創新可能帶來的危害之間尋求一個有效平衡,很大程度上是使用者的問題。如何對使用者進行有效監管,也是歐盟人工智能立法面臨的一大挑戰。此外,統一的法律框架并未涉及具體的法律規范,因此實際的執行效果上可能會“大打折扣”。(刁澤)
14日,歐洲議會全體會議表決通過了《人工智能法案》授權草案,該法案進入歐盟立法嚴格監管人工智能技術應用的最終談判階段。
歐洲議會當天投票決定禁止實時遠程生物識別技術,如不能在公共場合進行實時人臉識別,并對ChatGPT等生成式人工智能工具增加更多安全控制措施,提出新的透明度要求,以確保人工智能的研發和應用符合歐盟權利和價值觀。
據歐洲議會網站消息,歐洲議會“為制定史上首部人工智能法案已經做好談判準備”。按照立法議程,歐洲議會將就這一授權草案與歐盟委員會和成員國進行“三方”談判,歐洲立法者希望在今年年底前就法案的最終版本達成共識。
今年5月,歐洲議會內部的市場委員會和公民自由委員會通過歐盟委員會于2021年4月提出的《人工智能法案》提案的談判授權草案。歐洲議會聲明,這部提案如正式獲得批準,將成為全世界首部有關人工智能的法規。
該法案將適用于在歐盟境內將人工智能系統投放市場或投入使用的實體(無論該實體是在歐盟境內還是在第三國)、在歐盟境內使用人工智能系統的實體以及在第三國使用人工智能系統但系統的輸出用于歐盟境內或對歐盟境內人員產生影響的實體。
該法案草案的一個突出特點是注重基于風險來制定監管制度,以平衡人工智能的創新發展與安全規范。草案將人工智能風險分為不可接受的風險、高風險、有限的風險和極小的風險四級,對應不同的監管要求。其中高風險人工智能的使用必須受到嚴格監管,系統提供者和使用者都要遵守數據管理、記錄保存、透明度、人為監管等規定,以確保系統穩定、準確和安全。對于違反規定者,草案設定了最高3000萬歐元或全球年營業額6%的罰款。
最新草案嚴格禁止對人類安全造成不可接受風險的人工智能系統,包括部署潛意識或有目的操縱技術、利用人們弱點或用于社會評分的系統,并擴大了人工智能高風險領域的分類,將對人們健康、安全、基本權利或環境的危害考慮在內。草案還要求人工智能公司對其算法保持人為控制,提供技術文件,并為“高風險”應用建立風險管理系統,還針對ChatGPT等生成式人工智能設立專門監管制度。每個歐盟成員國都將設立一個監督機構。
此外,引進監管沙盒機制以管控風險和促進創新,在人工智能系統入市或投入使用前,對人工智能系統進行開發、測試和驗證降低風險。最新草案文本還提出,這一機制同樣被允許用于在現實條件下測試創新人工智能,以鼓勵人工智能企業持續創新。
清華大學自動化系教授陶建華在接受記者采訪時說,歐盟試圖建立一個統一的人工智能法律監管框架,是全球人工智能發展進程中一個重要的標志性事例。其對人工智能進行有效法規約束的探討和嘗試都會產生全球性的影響,可能引發越來越多的國家嘗試跟進相關法規的探索。
競天公誠律師事務所合伙人袁立志認為,歐盟推動人工智能立法,有利于保護基本人權、維護歐盟在數字主權和科技領域的領導地位,并通過這樣一部綜合性立法搶占全球人工智能監管先機。但其本身具有局限性。它采用的是橫向立法,并非針對特定人工智能應用領域,而是試圖把所有人工智能都納入監管范圍,在執行層面將面臨大量的解釋問題。
陶建華指出,歐盟并未就人工智能技術可能會給人類帶來什么樣的影響形成共識。從辨證的角度看,人工智能既能造福和服務人類,但如若用之不善,也會給人類帶來威脅或傷害。因此,如何平衡創新和約束是歐盟立法面臨的一個非常重要的挑戰。但在追求創新和管控創新可能帶來的危害之間尋求一個有效平衡,很大程度上是使用者的問題。如何對使用者進行有效監管,也是歐盟人工智能立法面臨的一大挑戰。此外,統一的法律框架并未涉及具體的法律規范,因此實際的執行效果上可能會“大打折扣”。(刁澤)