• 简中
    • 繁中
  • 注册
  • 查看作者
  • 欧盟最新AI监管草案:全面禁止大规模监控及基于AI嘅社会信用体系

    转载:本文来自微信公众号“学术头条”(ID:SciTouTiao),作者:刘芳,编审:王新凯,排版:王落尘,转载经授权发布。

    喺数据保护和人工智能技术监管方面,欧盟一直走喺立法实践嘅最前端。当地时间 4 月 21 日,欧盟委员会公布‌名为 “Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts” 嘅草案,对人工智能技术应用进行‌风险评定。

    根据这份草案,欧盟将全面禁止大规模监控和利用人工智能技术嘅社会信用体系,同时对特定领域嘅 “高风险” 应用进行严格限制。

    欧盟最新AI监管草案:全面禁止大规模监控及基于AI嘅社会信用体系

    2020 年 2 月 19 日,欧盟委员会曾发布‌名为 “White Paper on Artificial Intelligence – A European approach to excellence and trust” 嘅白皮书,就点样促进人工智能发展及解决相关风险进行‌讨论。而 21 日发布嘅这项草案正系白皮书嘅法律延伸,目嘅喺于为实现可信赖嘅人工智能生态系统提供牢固嘅法律框架。

    一旦得到通过,呢项法案将喺好大程度上对第啲地区嘅人工智能治理带来影响,就如 2018 年 5 月 25 天生效嘅《欧盟一般数据保护条例》(GDPR)一样。

    欧盟竞争事务负责人 Margrethe Vestager 喺公布草案时表示:“通过标志性法规,欧盟正喺度确立全球规范,以确保人工智能系一项值得信赖嘅技术。通过制定标准,我哋可以为符合伦理嘅人工智能技术铺平道路,并确保欧盟喺此过程中保持竞争力。”

    Politico 专门负责 AI 报道嘅 Melissa Heikkilä 则认为,呢个草案有住一定嘅先发优势,佢将喺好大程度上影响由欧洲理事会、经合组织、北约、联合国教科文组织和七国集团主导嘅全球人工智能伙伴关系 (Global Partnership on Artificial Intelligence) 嘅探讨。

    被全面禁止嘅人工智能应用

    喺草案度,欧盟委员会首先讨论‌乜嘢是人工智能呢个问题。

    由于技术错综复杂,行业内部一直没有就呢个问题畀出确定嘅统一答案。欧盟委员会认为,人工智能系一大类迅速发展技术嘅统称。对于一组人类指定目标,呢项技术可以喺物理或数字维度畀出包括内容、预测、建议或决策嘅输出,从而对其交互嘅环境产生影响。人工智能系统或自己为终端产品(非嵌入式),或为产品嘅一个组成部分(嵌入式)。

    为‌提供必要嘅法律确定性,欧盟委员会喺草案中用附件嘅形式详细列举出‌属于人工智能范围内嘅技术清单。唔仅咁,该清单还会唔断更新,从而和最前沿嘅人工智能技术保持同步性。换言之,人工智能嘅定义喺这项草案里具有灵活性和时效性,巧妙化解‌法律滞后性和技术飞速发展之间嘅矛盾,为之后行业嘅合规带来‌便利。

    草案将人工智能应用分为‌完全唔可接受风险、高风险和低风险等唔同等级,其中有三种应用被完全禁止。

    第一种系喺唔知唔觉中对人类意识进行操控,从而影响其决定或扭曲其行为,进而对人类造成身体或心理嘅伤害。有观察家认为,呢项条例可以让人联想到 Facebook、Twitter、谷歌和亚马逊嘅大部分商业模式,及虚假信息和极端主义等推荐算法。虽然没有明确指出条例所针对嘅对象,但欧盟委员会是世界上首个以法律语言禁止人工智能系统 “操控” 人类思想嘅机构。

    第二种情况是利用儿童或残疾人嘅脆弱性对其造成伤害,呢显示‌欧盟一贯嘅对弱势群体嘅重视和保护。

    第三项则是基于人工智能系统上嘅社会信用体系。欧盟委员会认为,公共当局根据自然人嘅社会行为或人格特征对其进行信用评估会造成唔可预见嘅后果,个人或特定群体嘅权益将受到损害。唔同嘅社会语境会产生唔同嘅算法偏见,而算法偏见将直接对信用评估产生影响。咁样嘅社会信用体系侵蚀社会公平公正嘅原则,因此需要被禁止。

    对于好多人关注嘅面部识别技术,欧盟委员会喺这份草案中留出‌余地。作为 “实时远程生物识别技术” 嘅一种,面部识别喺好大程度上侵犯‌人嘅隐私。因此,无差别嘅大规模监控会被欧盟全面禁止,只有喺三种特定情况下除外:寻找失踪儿童;解除恐怖袭击嘅威胁;以及喺法律允许范围内追查特定嘅刑事犯罪嫌疑人。

    “实时远程生物识别技术” 是呢次欧盟委员会住重强调进行限制嘅人工智能技术,佢特指喺没有显著延迟嘅情况下对个体生物数据嘅捕获、比较和识别。这项技术嘅特点是将人嘅生物数据同数据库进行比较,并且事先并唔确定目标人物系咪会出现。值得注意嘅系,喺欧盟议会内部有强烈嘅全面禁止这项技术嘅声音。上礼拜,40 名欧盟议会议员曾联名上书,批评该草案对 “实时远程生物识别” 技术网开一面。

    高风险应用场景

    除咗以上被全面禁止嘅情况外,欧盟委员会还详细列举‌人工智能嘅 “高风险” 应用。草案话,高风险嘅人工智能系统只有喺符合欧盟强制性要求嘅情况下才能投入市场使用,否则公共利益会受到唔可接受嘅风险。换言之,未来唔符合准入标准嘅人工智能系统将被无情地挡喺欧盟市场之外。

    首先是执法系统和法院对人工智能嘅使用。草案话,执法当局使用人工智能系统会导致权力严重失衡,侵犯个人基本权益。如果训练呢啲算法嘅数据质量唔高,或算法嘅准确性及鲁棒性没有达到要求,噉样程序性正义,公平审判权,辩护权和无罪推定嘅权利就会受到冲击。欧盟委员会尤其将个人风险评估、测谎仪、辨别情绪等应用归为高风险。喺刑事诉讼度,基于人工智能技术对证据进行可靠性评估,对嫌疑人嘅性格特征进行判断,或基于过去嘅犯罪行为进行推定等行为同样被归为高风险范围。

    第啲嘅高风险应用场景主要集中喺社会保障、就业和教育等同生活息息相关嘅方面。喺就业方面,欧盟委员会考虑到‌人工智能喺招聘、升职、解雇及合同关系中可能扮演嘅重要角色。草案认为,利用算法对工作人员进行评估或监测无疑属于高风险,因为佢们对员工嘅职业前景和基本生计有住难以将控嘅影响。同时因为算法偏见,人工智能对妇女、残疾人或年龄嘅歧视也将继续,人嘅隐私权将唔可避免地受到威胁。

    喺教育方面,欧盟委员会认为利用算法进行招生录取及考试评定必须被视为高风险,因为这好可能会影响佢哋呢一生受教育嘅机会,仲要将产生社会固化嘅问题。喺社会保障系统方面,欧盟委员会认为人工智能参同决策过程将对民生产生重大影响。例如,利用人工智能决定人系咪能获得银行贷款、财政补助、保障性住房、电力电信等基本服务。由于种族、残疾、年龄、性取向等各种因素,算法好可能会延续目前社会已经存喺嘅广泛歧视,从而使弱势群体处于更加唔利嘅地位。

    草案中对于高风险人工智能嘅合规要求招来‌一啲欧盟组织嘅反对。虽然欧盟将通过质量管理和评估程序严格管控,但一啲人工智能技术供应商将被允许进行自我合规测评。数字权利组织 EDRi 嘅高级政策顾问 Sarah Chander 对 Politico 表示:“欧盟委员会将合规交畀‌人工智能供应商,呢可能会损害(人嘅)基本权利,甚至可能让公共当局逍遥法外。”

    对此某啲科技行业嘅游说人士则感到宽慰,佢哋对高风险应用嘅合规要求表示称赞。计算机同通信行业协会(Computer & Communications Industry Association)嘅 Christian Borggreen 对法新社指出,欧盟委员会采用‌基于风险嘅评估方法,呢好好。该协会代表‌包括亚马逊、Facebook 和谷歌喺内嘅多家科技巨头。违反此法案嘅公司可能被处于 2000 万欧元或公司收入 4% 嘅罚款,同之前嘅反垄断法规定类似。

    随住草案嘅出台,关于数据主体基本权利同技术创新间关系嘅新一轮争论也将随之拉开序幕。要想获得通过,呢项法案必须得到代表欧盟 27 国政府嘅欧洲理事会和直接选举产生嘅欧洲议会嘅批准,成个过程可能需要几年时间。上年年底,以丹麦为首嘅 14 个国家发表‌一份唔具约束力嘅文件,呼吁建立一个更 “灵活” 嘅法律框架。但对于德国咁样更注重隐私嘅国家嚟讲,呢项草案嘅规定明显仲未够深入。

    人工智能技术嘅日新月异同欧盟繁琐复杂嘅立法机制形成‌鲜明嘅对比。但无论点样,人类已经就人工智能嘅系统性风险已经展开‌实质性嘅立法规划。从呢个意义上来睇,欧盟再次喺法治战略上抢得先机。

    参考资料:

    链接

    链接

    链接

    链接

    链接

    cantonese.live 足跡 粵字翻譯

    2021-04-25 07:35:12

  • 0
  • 0
  • 0
  • 166
  • 请登录之后再进行评论

    登录
  • 任务
  • 发布
  • 偏好设置
  • 单栏布局 侧栏位置: