歐洲正在走向全麵立法,規範整個行業部門的人工智能(AI)。這是至關重要的一步,因為“協調”AI法規允許AI公司在所有27個成員國運營,就像在任何一個國家一樣。
2020年2月,歐盟委員會發布了《人工智能白皮書》,提出建立歐洲可信人工智能監管框架。2020年10月,歐洲議會通過了關於人工智能的三項決議,包括道德、民事責任和知識產權(IP)。此外,它要求委員會為開發、部署和使用人工智能、機器人和相關技術建立道德原則的法律框架。該監管框架草案於去年4月準備就緒,並於2022年3月22日更新和通過。
最初的提案草案《人工智能法案》(AIA)對人工智能的使用采用了基於風險的分級方法,有四個風險級別,並提供了以下建議:
- 不可接受的風險AIs是有害的人工智能,違反歐盟的價值觀(如政府的社會評分)。這些應該被禁止,因為它們會帶來不可接受的風險。
- 高風險AIs是對人們的安全或基本權利產生不利影響的人工智能係統。為確保信任並保護安全和基本權利,一係列強製性要求(包括合格評定)應適用於所有高風險係統。
- 有限的風險AIsAI係統受製於有限的義務(例如透明度)。
- 最小的風險AIs是所有其他AI係統。這些可以在歐盟開發和使用,而不需要承擔比現有立法更多的法律義務。
總體而言,這些建議適用於金融服務、醫療設備、機械和玩具等產品,以及以下產品:
- 自然人的生物識別與分類
- 關鍵基礎設施的管理和運作
- 教育和職業培訓
- 就業、工人管理、自主創業
- 獲得和享受基本的私人服務、公共服務和福利
- 執法
- 移民、庇護和邊境控製管理
- 司法和民主程序的管理
該報告還支持建立監管沙盒,在監管監督下開發創新AI係統和商業模式。
該提議的下一步將由共同立法者、歐洲議會和理事會(歐盟成員國)進行討論。