欧盟委员会宣布启动一项试点项目,该项目用于测试人工智能技术开发和应用的伦理规则草案,以确保它们能够在实践中得到实施。
除此之外,该项目还旨在收集反馈意见,促进“以人为本的人工智能”成为国际共识,以便在即将召开的七国集团(G7)和二十国集团(G20)会议上,就这一主题展开更多讨论。
去年夏天,该委员会的人工智能高级别小组(由来自各行业、学术界和市民团体的52名专家组成)在12月发布了关于可被信赖的人工智能的道德规范草案。
该文件的修订本已于3月提交至委员会。除了机器学习技术需要尊重的现有法律法规外,它将专家的咨询结果总结为人工智能的七个“关键要求”,即:
人类权利与监督 :“人工智能系统应该通过支持人类的行动力和基本权利,成为公平社会的保障,而不是减少、限制或误导人类的自治。”
稳定性和安全性 :“可信的人工智能要求算法足够安全可靠和稳定有力,能够在人工智能系统的所有生命周期阶段里处理错误或不一致性。”
隐私和数据管理 :“公民应该完全掌控自己的数据,有关他们的数据不会被用来伤害或歧视他们。”
透明度 :“确保人工智能系统的可追溯性。”
多样性、公平性和避免歧视 :“人工智能系统应该全面考虑人类的所有能力、技能和需求,并确保人工智能的可访问性。”
社会和环境福祉 :“人工智能系统应该被用来促进积极的社会变革,推动可持续性发展和生态责任的担当。”
问责制 :“应该建立相应机制,确保人工智能系统及其应用的责任和义务得到承担。”
欧盟委员会下一个阶段的人工智能道德战略,是观察规范草案在大范围的试点中的运作状况。试点中涉及到广泛的利益相关者,包括来自欧盟以外的国际组织和公司。
欧盟委员会表示,试点阶段将于今年夏天启动。它请求公司和公共组织注册其人工智能论坛,即欧洲人工智能联盟(European AI Alliance),以便在试点开始时接收通知。
其人工智能高级别专家小组的成员也将向成员国的利益相关方介绍和解释这些准则。小组成员将于明天在布鲁塞尔举行的第三届欧盟数字日(Digital Day)期间详细介绍他们的工作。
在关于“为以人为本的人工智能建立信任”的官方通讯中,该委员会对试点计划做出以下解释:
这项工作将包括两个方面:(i)针对包括公共管理在内的人工智能应用的利益相关方的试点;(ii)各成员国间和(包括工业和服务业在内的)利益相关团体之间的磋商讨论和提高认识过程:
(i)从2019年6月开始,将邀请所有利益相关方和个人对清单进行评估检验,提供改进意见。此外,人工智能高级专家小组也会与私营、公营机构的相关方进行深入讨论,以收集更详细的意见,探讨如何在广泛的应用领域里应用准则。所有关于指南可行性的反馈将在2019年底前进行评估。
(ii)同时,该委员会将组织进一步拓展该活动,给人工智能高级专家代表们更多的机会介绍该指导方针,并让成员国的利益相关者针对该指导方针提供更多的评价反馈。
数字单一市场(Digital Single Market)副总裁Andrus Ansip在一份声明中评论道:“人工智能的道德维度不是一个奢侈的功能或附加组件。只有对它赋予了信任,我们的社会才能充分受益于技术。合乎道德的人工智能是一个双赢的主张,它可以成为欧洲的竞争优势——一个可以信赖的以人为本的人工智能领导者。”
欧盟数字经济与社会(Digital Economy and Society)专员Mariya Gabriel在另一份支持性声明中补充道:“今天,我们为在欧盟实现安全和道德的人工智能,迈出了重要一步。基于欧盟的价值观,在企业、学术界和公民社会的众多利益相关方的广泛和建设性参与下,我们打下了坚实的基础。现在将把这些要求付诸实践,同时围绕以人为本的人工智能推动国际讨论。”
该委员会表示,2020年初,试点阶段之后,人工智能专家小组将根据收到的反馈,对关键需求的评估表进行审核。委员会将在审核的基础上评估试点成果,并提出下一阶段的步骤。
到2019年秋季,委员会还计划推出一系列人工智能研究中心网络。此外,它还计划建立数字创新中心网络,促进成员国和利益相关方之间的讨论,开发和应用数据共享模型,以最大限度地利用公共数据空间。
这些计划属于欧盟委员会2018年4月的人工智能战略,该战略的目标是在10年内使公共和私人领域的人工智能投资超过每年两百亿欧元,从而产生更多的可用数据,培育相关人才。
(选自 Cnet 编译 晗冰 报告数据援引至CNET)
来源 | 网易智能