资料来源:报纸。
记者小芳
基本模型的供应商将被要求声明是否使用有版权的材料来训练AI。对于谷歌和微软等科技公司来说,如果违反规定,罚款可能高达数十亿美元。
下一步是涉及成员国、议会和欧盟委员会的三方谈判。争论的一个主要领域是面部识别的使用。欧洲议会投票禁止使用实时面部识别,但仍然存在一个问题,即出于国家安全和其他执法目的,是否应该允许豁免。
当地时间6月14日,在法国斯特拉斯堡举行的欧洲议会全体会议上,议员们出席了人工智能法案的投票会议。
当地时间6月14日,欧盟“AI法案”向成为法律迈出了重要一步:欧洲议会投票通过了该法案,禁止实时面部识别,并对ChatGPT等生成式人工智能工具提出了新的透明度要求。
《人工智能法案》现在将进入欧盟开始监管前的最后阶段。官员们将试图与欧盟行政当局和成员国就这一法律草案达成妥协,他们之间仍然存在分歧。如果该法案要在明年欧盟选举前生效,立法程序必须在明年1月完成。
“这一刻非常重要。”Access Now布鲁塞尔办公室专门研究人工智能的高级政策分析师丹尼尔·勒弗(Daniel Leufer)告诉《时代》杂志,“欧盟提到的不可接受的人权风险将被视为整个世界的蓝图。”
欧盟批准的法律版本提出,任何应用于就业、边境控制和教育等“高风险”用例的人工智能都必须遵守一系列安全要求,包括风险评估、确保透明度和提交日志记录。该法案不会自动将ChatGPT等“通用”AI视为高风险,但会对经过大量数据训练的“基本模型”或强大的AI系统提出透明度和风险评估要求。例如,包括OpenAI、谷歌和微软在内的基础模型的供应商将被要求声明是否使用有版权的材料来训练AI。但是,没有类似的要求来声明在培训期间是否使用个人数据。
这些规则是如何运作的?
欧盟的人工智能法案于2021年首次提出,将适用于任何使用人工智能系统的产品或服务。
该法案根据四个风险级别对人工智能系统进行分类,从最低到不可接受。更高风险的应用程序,如* *和儿童技术,将面临更严格的要求,包括更高的透明度和更准确的数据。
欧盟的主要目标之一是防止任何人工智能对健康和安全构成威胁,保护基本权利和价值观。
这意味着AI的一些使用是绝对禁止的,例如根据行为判断人的“社交评分”系统,以及使用弱势群体(包括儿童)或使用可能造成伤害的潜意识AI,例如鼓励危险行为的互动对话工具。用于预测谁犯罪的预测性警务工具也将被禁止。
此外,用于就业和教育的人工智能系统将影响一个人的生活过程,并将面临严格的要求,如对用户透明,采取措施评估和降低算法带来的偏差风险。
根据欧盟委员会的说法,大多数人工智能系统,如视频游戏或垃圾邮件过滤器,都被归类为低风险或无风险。
争论的一个主要领域是面部识别的使用。欧洲议会投票禁止使用实时面部识别,但仍然存在一个问题,即出于国家安全和其他执法目的,是否应该允许豁免。另一项规定将禁止公司从社交媒体上抓取生物特征数据来建立数据库。
同一天,欧洲议会的一群右翼议员试图在最后一刻解除该法案提出的实时面部识别禁令,但遭到议员们的拒绝。
这些规则的实施将取决于欧盟的27个成员国。监管机构可能会迫使企业从市场上撤回申请。在极端情况下,违规行为可能被处以高达3000万欧元(约合3300万美元)或公司全球年收入6%的罚款。对于谷歌和微软等科技公司来说,罚款可能高达数十亿美元。
跟ChatGPT有什么关系?
该法案的最初措施几乎没有提到聊天机器人,只要求对它们进行标记,以便用户知道它们正在与机器进行交互。谈判人员后来添加了条款,以涵盖ChatGPT等流行的通用人工智能,这使得该技术满足与高风险系统相同的一些要求。
一个关键的补充是,该法案要求彻底记录任何用于训练AI系统生成类似人类作品的文本、图像、视频和音乐的版权材料。这将让内容创作者知道他们的博客帖子、电子书、科学论文或歌曲是否被用来训练算法,为ChatGPT等系统提供动力。然后他们才能决定自己的作品是否可以* *并寻求赔偿。
一些担心人工智能模型带来安全风险的专家认为,该法案并没有限制人工智能系统可以使用的计算能力。随着每个新版本的发布,像ChatGPT这样的大型语言模型使用的计算量呈指数级增长,这将大大提高其能力和性能。“用于训练人工智能系统的计算越多,人工智能就越强大。能力越大,风险和危险的可能性就越大。”人工智能安全初创公司juxture的战略和治理负责人安德里亚·米欧蒂(Andrea Miotti)告诉《时代》杂志。
米奥蒂指出,研究人员测量系统的总计算能力相对容易,因为用于训练大多数前沿AI的芯片是物理资源。
欧盟监管为什么重要?
《时代》指出,欧盟并不是前沿人工智能发展的重要参与者,这个角色由美国和中国扮演。而欧盟往往扮演着引领潮流的角色,其法律法规往往成为事实上的全球标准,成为针对大型科技公司权力的先锋。
专家表示,欧盟单一市场规模巨大,拥有4.5亿消费者,这使得企业更容易遵守法规,而不是针对不同地区开发不同的产品。通过制定人工智能的通用规则,欧盟也试图通过向用户灌输信心来发展市场。
爱尔兰公民自由委员会(Irish Civil Liberties Commission)高级研究员克里斯·施里萨克(Kris Shrisak)表示,“这是一部可执行的法律,公司将被追究责任的事实意义重大”,因为美国、新加坡和英国只提供“指导和建议”。“其他国家可能想适应和* *”欧盟的规则。
其他国家也在加强监管。例如,英国首相Rishi Sunak计划在今年秋天举行人工智能安全世界峰会。“我想让英国不仅成为知识的家园,也成为全球人工智能安全监管的地理家园。”Sunak在本周的一次技术会议上表示,英国协会将汇集“来自世界各地的学术界、商界和政府”的人士,共同致力于“多边框架”。
阿达·洛芙莱斯研究所主任弗朗辛·贝内特(Francine Bennett)告诉* * * *:“发展迅速、可以快速转移的技术当然很难监管,因为即使是开发这项技术的公司也不知道事情会如何发展。但如果我们继续在没有足够监管的情况下运营,对我们所有人来说肯定会更糟。”
但美国计算机和通信行业协会认为,欧盟应避免过于宽泛的监管,否则会抑制创新。该机构的欧洲政策经理Boniface de Champris表示,“欧洲的新人工智能规则需要有效地解决明确定义的风险,同时为开发者提供足够的灵活性,以提供惠及所有欧洲人的人工智能应用。”
下一步是什么?
该法案可能需要几年时间才能完全生效。下一步是涉及成员国、议会和欧盟委员会的三方谈判,在他们试图就措辞达成一致之前,可能会面临更多变化。
勒夫分析说,在即将到来的三方对话阶段,代表成员国政府的欧洲理事会预计将强烈主张执法和边境部队使用的人工智能工具免受“高风险”系统的要求。
该法案预计将于今年年底最终获得批准,随后将有一段宽限期,供企业和组织适应,通常为两年左右。但领导该法案工作的欧洲议会(European Parliament)意大利议员白兰度·贝尼菲(Brando Benifei)表示,他们将推动快速发展的技术(如生殖人工智能)更快地采用规则。
为了在立法生效前填补空空白,欧洲和美国正在起草自愿行为准则。5月底,官员们承诺将在几周内起草该准则,并可能将其推广到其他“志同道合的国家”。
本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。
原文地址"人工智能欧洲杯,欧盟认为人工智能机器人也受法律约束":http://www.guoyinggangguan.com/qkl/143806.html。

微信扫描二维码关注官方微信
▲长按图片识别二维码