人工智能技术的快速进步及其应用场景的不断拓展延伸,让各国政府监管部门正面临着越来越大的监管挑战。作为一项新兴关键技术,其应用领域极其广泛,但即使这样,作为一项基础技术而言,它会在多大范围、多深程度上影响产业发展、工人就业并产生其他诸如虚假信息、隐私保护、国家安全等方面的挑战,人们仍然无法确定。更重要的是,无论是美欧等传统发达经济体还是像中国这样的新兴经济体,对如何监管人工智能等新兴技术和新兴产业领域的相关规则都还处于探索阶段。2023年2月14日,卡内基和平基金会专家马特·奥肖内西和马特·希汉为此发表了题为《全球两类人工智能治理实践的教训》的评论文章,文章分析了当前欧盟和中国在人工智能监管方面的实践,认为两种监管思路各有特色、各有利弊,政策制定者应当研究人工智能治理措施的成败经验,以指导他们的监管方法。
以下是该评论文章译文,供参考。
众所周知,由于人工智能无所不在且其发展方向仍不明朗,这使得它难以监管。但幸运的是,对于世界其他地区来说,目前人工智能治理设计方面的两项重大实践正在欧洲和中国展开。欧盟(EU)正在竞相通过其《人工智能法案》草案,这是一项旨在管理人工智能所有用途的全面立法。与此同时,中国正在推出一系列针对特定类型算法和人工智能能力的法规。对于启动人工智能治理计划的国家来说,从上述两项人工智能治理实践的成败中吸取教训至关重要。
在人工智能的严肃立法过程中,政策制定者面临的首要问题是采取更“横向(horizontal)”还是更“纵向(vertical)”的方法。在“横向”方法中,监管机构将创建一个全面的法规,涵盖了人工智能可能产生的许多影响。在“纵向”方法中,政策制定者采取“定制”的方法,针对不同应用或类型的人工智能制定不同的法规。
欧盟和中国都没有采取纯粹的横向或纵向方法来管理人工智能。但欧盟的人工智能法案是更偏向于横向监管方式,中国的算法法规则是偏向于纵向方法。通过深入研究这两项人工智能的治理实践,政策制定者可以从中为他们自己的监管方法总结经验。
欧盟的做法
欧盟对人工智能治理的方法以一项核心立法为中心。《人工智能法案》的核心是将人工智能应用的风险分为四类,每种风险都由一套预定义的监管工具来管理。其中,被认为构成“不可接受风险”的应用(如社会评分和某些类型的生物识别技术)被禁止;对安全或基本权利构成“高风险”威胁的应用(如执法或招聘程序)须遵守某些上市前和上市后要求;被视为“有限风险”的应用(例如情绪检测和聊天机器人)仅面临透明度要求;大多数人工智能的使用被归类为 “最低风险”,只受制于自愿措施。
《人工智能法案》模糊地定义了每个风险等级的“基本要求”,对每个类别都有不同的限制。对于开发者来说,满足这些要求最简单的方法就是遵守欧洲标准制定机构制定的技术标准。这使得技术标准成为《人工智能法案》的关键部分:它们是将立法中描述的一般规定转化为人工智能系统精确要求的部分。一旦生效,法院、国家监管机构和技术标准机构的多年工作将准确阐明《人工智能法案》如何适用于不同的情况。
实际上,《人工智能法案》是通过单一的“横向”立法方式来确定人工智能应用的广泛监管范围。同时,允许法院、标准机构和开发商等领域和相关机构确定确切的标准和合规策略。为了进一步提高其以更具体方式行事的能力,欧盟还将《人工智能法案》中的要求与共同监管战略相结合,例如监管沙盒(regulatory sandboxes)、应对人工智能挑战的最新责任政策以及专注于数据、市场结构和在线平台的相关立法等。
该框架在提供可预测性和跟上人工智能发展的双重要求之间取得了平衡。其基于风险的方法允许监管机构随着人工智能用途的发展将新的应用领域纳入现有风险类别,从而在灵活性和监管确定性之间取得了平衡。同时,《人工智能法案》对基本要求相对灵活的定义也减轻了纯粹的横向框架所带来的有关精确性的关键挑战,使合规战略能够在不同的部门和技术发展中保持灵活性。
但欧盟这种倾向横向的做法面临几个风险,其他国家应该密切关注。负责执行监管要求的各个监管机构可能在解释或监管能力方面存在差异,从而破坏了横向方法的关键能力和协调效应。另一个因素是拟议的中央和横向欧洲人工智能办公室是否能有效补充国家和部门监管机构的能力。尽管将精确技术需求的创建委托给专家标准制定机构,可以将更多的技术专长和精度引入精确的需求中。但是,标准制定过程历来是由行业推动的,确保政府和公众在谈判桌上有一个有意义的席位将是一个挑战。
中国的做法
在过去的一年里,中国推出了世界上第一个针对算法和人工智能的具有全国约束力的法规。它采取了一种纵向方法:选择特定的算法应用程序并编写法规来解决它们在某些领域部署问题。该方向的前两项法规针对推荐算法和深度合成技术,也被称为生成AI。
推荐算法法规的重点是它在传播信息、定价和派遣工人方面的使用。它要求算法提供商“大力传播正能量”,避免价格歧视或对送货司机的工作量要求过高。第二项规定针对的是使用训练数据生成新内容的深度合成算法,比如深度伪造(deepfakes)[1]。该规定再次聚焦于对“有害信息”的关注,但它也要求提供商在图像或声音被该技术操纵时需获得个人的同意。这些特定应用程序的需求源于法规的垂直性质。这些要求在适用于另一组应用或适用于横向监管所涵盖的应用时,都没有意义。
但中国的法规确实包含一个横向要素:它们创造了某些监管工具,可以横向应用于几个不同的纵向法规。算法备案系统(字面意思是 “算法归档系统”)就是一个典型的例子。算法备案系统由推荐算法法规创建,并由深度综合法规重申,这两项法规都要求开发者注册其算法。它是中国官员收集算法信息的中央数据库,例如其训练数据来源和潜在的安全风险。因此,该备案注册系统还可以作为监管机构深度了解人工智能如何构建和部署的工具,这是全球行业监管机构的一个关键目标。
展望未来,备案注册系统可能会继续作为一个横向工具,收集有关属于各种纵向算法法规的类似信息。它可以进行灵活调整,并根据算法的应用要求提供不同种类的信息,或者它可以简单地提供所有受监管的算法所需的统一信息基线(uniform baseline) 。
中国的做法使其能够更精确地对具体技术能力提出监管要求。在大部分情况下,这种方法可能会导致规则滞后于技术发展的速度。然而,在中国的人工智能监管中,由于一些监管要求的定义非常模糊,以至于它们实际上起到了将权力从技术公司转移到政府监管机构的作用,后者可以利用新获得的监管权力,迫使企业按照自己的意愿做出任何改变。中国的纵向监管最终也可能会成为更全面的人工智能治理机制的基石,这种模式在《网络安全法》出台之前就在中国的互联网治理中发挥作用。但在此之前,这种方法的主要风险是相关的监管法规是一个拼凑出来的法规,这些法规总体上考虑不周到且遵守的成本及其高昂。
经验之谈
各界人士对欧盟和中国的做法褒贬不一。商业团体认为,欧盟广泛的横向监管方法将扼杀创新,而分析人士则断定,中国的定向监管将被用来加强信息控制。但退一步看他们人工智能监管的基本方法,世界各国的政策制定者或监管机构都可以从中吸取教训。
一个核心教训是,这两种方法并不能完全独立地存在。纯粹横向监管的方法将无法为人工智能的所有应用制定有意义的具体要求。相反,针对每一个人工智能的新应用都创建一个独立的垂直法规,可能会造成监管机构和企业的合规混乱。
最有效的方法是同时包含横向和纵向两种要素。采取横向方法的监管者可以将制定具体合规要求的实质工作推给更垂直的组织,如部门监管者、标准机构,或在某些情况下的法院,进而从中受益。同样,采取纵向方法的政府可以创建横向监管的工具和资源,用于各种特定应用的法律,从而减轻监管机构的负担以及企业面临的不可预测性。
我们可以在欧盟和中国的监管方法中看到类似的版本。虽然欧盟《人工智能法案》创建了四个风险等级,并为每个风险等级列出了广泛的要求,但阐明具体合规门槛的重任将由欧洲的主要标准化机构完成。尽管中国针对推荐引擎和生成性人工智能发布了垂直监管规定,但为保持监管规定之间的一致性,它们也依赖于算法注册表等横向工具。
除了这种补充两种方法的总体需求外,横向和纵向监管制度各有优劣。选择哪种监管制度最有效,往往要取决于该政府的结构和文化。一个国家的立法机构灵活还是僵硬?其行业监管机构的权力与协调程度如何?这些问题的答案将告诉我们哪种方法最有效。
横向监管方法通过设置一组固定的治理工具,为开发人员和企业提供了可预测性。尽管人工智能应用五花八门,但它们带来的风险往往涉及透明度、稳健性和问责制等类似主题,横向战略可以帮助政府将有限的资源集中在这些重复的主题上。横向监管方法还可以在负担过重的特定行业监管机构缺乏人工智能等新技术研究能力时减少出现监管缺口的可能性。
但政府需要具备一些特点,才能获得横向监管方法的好处。即他们的立法机构有能力修改或增加其主要的横向法规,以跟上技术的步伐。对于一项快速发展的技术,静态的横向监管独立难支。此外,当横向监管法规将精确合规要求的设定委托给其他机构时,这些机构需要有能力抵抗行业捕获行为(industry capture)。例如,如果行业主导的标准机构制定了薄弱的合规标准,那么监管本身就会变得薄弱。
纵向人工智能法规的好处是可以量身定制,以减轻不同人工智能应用所带来的具体危害。虽然最终的目标比较有限,但这些单独的法规可以解决现有的危害,而且无需增加额外负担就可以普遍适用于该技术的所有应用。随着监管者和立法者了解到那些被证明是成功的干预措施,他们可以在未来将这些工具或要求纳入到针对其他危害的立法中。如果这种零敲碎打的方法最终被证明是远远不够的,那么他们可以通过这些经验来塑造一个更加横向的监管制度。
但纵向监管方法则需要一定程度的立法和机构间协调,以最大限度地减少监管者和企业的成本。如果各机构间不协调建立通用的监管工具,每次有新部门负责监管人工智能的具体应用时,那么它们将会产生重复工作的问题。同样,如果纵向监管没有配备必要的技术和财政资源,行业监管机构将无法有效限制企业的人工智能应用。
美国的政治结构已经对人工智能监管进行了一系列杂乱无章的尝试。这些努力带来了横向和纵向元素的独特融合。过去两届政府都制定了自己政治导向的指导原则,其形式是前总统唐纳德·特朗普关于人工智能监管的指导和乔·拜登总统的人工智能权利法案蓝图。这些作为横向指导,旨在为行政部门的垂直部门监管机构提供信息。这两种基于原则的横向方法都试图协调人工智能监管的高级别方法,同时保持灵活性以适应特殊环境。如果没有资源和压力来实际执行这种特定部门的调整,这种方法很有可能只会产生没有意义的约束性法规。
此外,依赖联邦部门规则制定或规则解释的监管法规很有可能在下一届政府期间被推翻,就像特朗普和拜登政府之间用于信贷决策算法的解释要求一样。与此同时,国会中的两党多数已经为人工智能研究工作和最佳实践指南提供了资金,例如美国国家标准与技术研究所(National Institute of Standards and Technology)最近发布的人工智能风险管理框架(RMF)。RMF在设计上是不具约束力的,但它确实与可用于支持未来垂直法规的水平工具有相似之处。
bat365官网登录下载_365best官网_365bet网上娱乐网址
人工智能监管并没有一个可以适用于各国的单一公式,但欧盟和中国的人工智能监管中使用的横向和纵向元素的混合(为各国)提供了一系列政策选择。通过从这些初始监管方法中借鉴适用于其独特国情背景的经验,其他国家可以采取有意义的措施来减少人工智能系统产生的危害。
[1] 深度伪造(deepfakes)是人工智能生成的任何人或名人的合成视频,它冒充真实的人,并让他们采取行动或说出他们从未做过的任何事情——编者注。