Loading...

【AIIG观察第205期】布鲁金斯学会:美国需采取一个全面、分布式的人工智能监管方法

强化学习1年前 (2023)发布 智源社区
384 0 0

点击蓝字 关注我们

【AIIG观察第205期】布鲁金斯学会:美国需采取一个全面、分布式的人工智能监管方法

海外智库观察

布鲁金斯学会:美国需采取一个全面、分布式的人工智能监管方法

2023年8月31日,布鲁金斯学会(Brookings Institution)发表其研究员Alex Engler撰写的评论文章《全面、分布式的人工智能监管方法(A comprehensive and distributed approach to AI regulation)》。文章指出,当前广泛应用于社会经济决策中的算法系统面临着一些挑战,建议通过授权和采取关键算法系统分类的方法来应对挑战,并呼吁对人工智能系统进行合理限制,采取全面、分布式的监管方法以保护公民权利。

首先,作者指出了算法决策系统(Algorithmic Decision-making System,ADS)的优劣势,并对布局全面和分布式的人工智能监管方法提出建议。ADS 已经帮助改善了许多关键的社会经济决策,但错误数据、算法失败、歧视性影响和被高估的算法能力会产生许多个人和系统危害。

联邦政府和监管机构缺乏审查和充分监管的能力,也将阻碍值得信赖和负责任的人工智能的发展。ADS在关键社会经济决策中的普遍扩散的同时,在不同的背景下有独特的表现,这构成了人工智能治理的一项核心挑战。

对此,作者提出了两个关键干预措施:第一,通过行政传票授权进行算法审查和审计;第二,通过关键算法系统分类(Critical Algorithmic System Classification, CASC)来监管ADS。作者随后详细介绍了这两种举措。第一种方法将授予被覆盖机构行政传唤权,以调查和审计影响到每个被覆盖机构法定权力相关流程的ADS。

其中,涵盖机构是指清单上列举的对社会经济决策具有重要部门监管作用的联邦机构,如消费者金融保护局、教育部、平等就业机会委员会、联邦通信委员会等。这些涵盖机构将被授予收集必要的数据、文档和包括代码和模型对象在内的技术工件的权力,并可以通过行政传票就ADS的开发和部署进行访谈。

这些机构还将有权使用这些行政传票对个别ADS进行算法审计,对ADS类别的影响进行系统审查,为CASC的规则制定过程提供信息,并执行CASC系统的规则。但这些机构只能对在国会授权范围内且对流程有重大影响的ADS发出行政传票,且需要向开发或部署ADS的实体提供适当的通知,确保通过传票取得的任何私人数据得到保护,避免泄露任何商业秘密或知识产权,这防止了过度监管,也减轻了机构之间的监管重叠。

第二种措施旨在创建一个新的监管工具,即关键算法系统分类,以授权相关机构在其法定权力范围内发布和执行有关ADS的法规,借此帮助联邦机构按比例解决在美国现有治理范围内运行的ADS的重大现有风险和潜在风险。

拟议的CASC系统将授权联邦机构制定和执行针对符合条件的 ADS 的规则,来为所涉及的机构提供足够的法律权力和监管工具,以监督在其现有国会授权的领域中使用的ADS。授权机构需要证明某类 ADS符合与危害风险(如对公平教育的获得造成的风险)、影响程度(如受影响的群体范围)和现有机构权力范围(机构需证明所做的决定或所影响的程序已经由国会授权承保机构进行监管)相关的三项标准,才能将CASC适用于该类ADS。

作者还分析了CASC方法的优缺点。作为一种管理算法的新方法,CASC能够使部门机构通过行政传票执行算法审计,发布特定于应用程序的法规,来全面解决ADS的扩散问题,并使联邦机构能够在其法律授权下不断适应ADS在关键社会经济决策中日益增长的作用。

CASC方法改善了几种特定情况下的治理,消除了合理算法监管的实际障碍,澄清了在ADS扩散之前制定的法律权威的不确定性,以及解决了对一些影响关键社会经济决定的ADS类别缺乏监管的问题。此外,CASC将明确规定,联邦机构可以监管影响关于就业歧视的一系列联邦法规、《职业安全与健康法案(Occupational Safety and Health Act)》、《公平住房法案(Fair Housing Act)》和其他民权立法的ADS,还可以对一些目前不受监管但符合CASC标准的ADS进行算法监督。

在弥补这些重大差距的同时,CASC也解决了联邦政府管理商业ADS能力的一个关键缺陷,该能力会广泛影响关键的社会经济决定。CASC通过行政传票和联邦规则制定程序使新的机构权力建立在完善的法律监管标准之上,因此,CASC可以被视为用以系统解决ADS造成的经济决策危害的一种最小但有效的干预措施。

相较于将类似的权力交给一个新机构或仅授权给联邦贸易委员会相比,CASC允许部门监管机构对ADS进行分布式管理,这是这种方法的一个关键优势。作者指出,创建一个中央算法监管机构可能会导致两种平行的监管机制:一种是由部门监管机构管理的人工流程,另一种是由算法监管机构管理ADS。鉴于社会经济决策的人为因素和算法因素不可分割,这种平行结构将不断受到机构之间交织的权力的挑战。

此外,随着ADS在关键的社会经济决策中发挥越来越大的作用,中央监管机构的工作量将会增加,而部门监管机构的工作量将会减少,从而造成长期失衡。虽然新的监管机构需要考虑数据隐私和在线平台治理等领域,但CASC的方法是管理用于关键社会经济决策的ADS的更好解决方案。

CASC方法在确保美国持续的经济和技术领先地位方面也具有显著的优势。CASC的影响范围要求也将对创新型小企业起到豁免作用,因为新的ADS类别不会立即达到影响范围的阈值,这将使初创企业开发新的ADS的同时,有时间确定必要的最佳做法和保障措施。此外,鉴于CASC排除了大多数社会影响不足的ADS,监管机构就能够专注于较少的ADS供应商。

CASC的方法展现了美国对待算法风险的认真态度,将有助于确保美国不仅可以成为人工智能领域无可争议的领导者,而且成为值得信赖的人工智能领域的领导者,这一声誉将在未来几十年中为美国吸引大量的全球业务和投资。其显著的监管灵活性可以实现更好的国际协调,这对于欧盟来说尤其有价值。欧盟目前正在通过一项针对算法系统的全面监管框架,即《欧盟人工智能法案(EU AI Act)》。

与欧盟在ADS问题上的紧密合作确保了这一重要贸易关系持续发挥作用,同时通过共享市场监督、分享最佳实践,以及与国际标准机构合作加强了监管监督。但CASC方法也存在明显的缺点,其中最明显的是该提案仍然是一种通用的干预措施,其针对性远远不如全面更新所有美国民权和消费者保护法来应对ADS的风险。

此外,其监管程序耗时长,特别是当受影响的实体提起诉讼时,长时间的监管程序可能会严重破坏CASC方法的有效性。即使许多机构只管理少量CASC系统,制定新法规的多年和资源密集型过程经常会被其他优先事项打断,甚至可能会延迟CASC法规的实施。

为了使CASC的方法有效,需要加快规则制定过程,进一步细化和澄清该提案中的术语,或增加法律清晰度并简化规则制定。此外,新的行政传唤机构可以免受《文书缩减法(Paperwork Reduction Act)》的约束,从而使证明ADS符合CASC标准的关键步骤更容易收集信息.对此,作者提议列举一份现有ADS类别的清单,以保证CASC规则的制定,或者提出可能需要CASC规则制定的具体评估标准,都具有未来研究的价值。对CASC方法的另一个批评是,其依赖于规则制定,这意味着它本质上具有追溯力,落后于新类别的ADS。

为了解决这个问题,CASC方法可以与基于权利的方法相结合,如向受影响的人披露信息、非歧视以及在ADS的描述和广告中的诚实性,以确保所有算法都符合一些通用特征。最后,所涵盖的机构将需要专业知识和员工能力来执行新的行政传唤机构和CASC规则制定机构所启用的ADS法规。其他干预措施可以与CASC的方法相结合以解决这一问题,例如扩大对联邦机构的资助,支持其他技术专家的聘用计划,或开发集中的资源和专业知识,以帮助联邦机构监管ADS。

最后,作者指出,CASC方法是一种相对“面向未来”的干预措施,它得益于现有的治理机制,即行政传唤权和联邦规则制定程序,而无需设立新的机构。作者也建议其与更通用的基于权利的算法系统方法相结合,并为联邦监管机构提供额外资金,以弥补其劣势,并提醒避免将CASC方法当作许多领域中高度多样化和情境化的算法挑战的通用解决,导致实施效率低下。

CASC方法将是一种有意义的政策干预,可以显著解决大规模用于关键社会经济决策的ADS的扩散问题,而这是治理算法系统的一个核心且尚未解决的挑战。

Alex Engler:美国布鲁金斯学会研究员,乔治城大学麦考特公共政策学院兼职教授,专注于研究人工智能和新型数据技术对社会和治理的影响。

原文链接:https://www.brookings.edu/articles/a-comprehensive-and-distributed-approach-to-ai-regulation/

文章检索:周韫斐

编译:朱奕霏、杨雨虹

审核:何嘉钰

排版:赵杨博、袁佳文

终审:梁正、鲁俊群

【AIIG观察第205期】布鲁金斯学会:美国需采取一个全面、分布式的人工智能监管方法

清华大学人工智能国际治理研究院编

上述信息均根据原文内容整理,谨供读者参考,不代表本机构立场和观点

【AIIG观察第205期】布鲁金斯学会:美国需采取一个全面、分布式的人工智能监管方法

往期回顾

研究动态丨人工智能国际治理观察第204期

研究动态丨人工智能国际治理观察第203期

研究动态丨人工智能国际治理观察第202期

关于我们

清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

© 版权声明

相关文章

暂无评论

暂无评论...