Home » 设想一个管理人工智能的全球制度综合体

设想一个管理人工智能的全球制度综合体

随着这种替代性的人工智能治理方法在政策讨论中获得关注,仍然存在一些分析空白。首先,很少有分析师明确将预期的人工智能治理框架定义为一个制度复合体,更不用说应对这种复杂的制度设计的影响了。其次,尽管包括 HLAB 在内的各利益相关方列举了来自其他领域的大量机构类比,以用于特定的治理功能,但他们很少详细探讨这些模型的相关性。6 第三,很少有专家探讨过地缘政治动态(包括战略竞争)将如何影响并可能制约人工智能国际机构的建立。本工作报告旨在填补这些空白,并提醒政策制定者注意在设计(理想情况下寻求协调)多种治理安排时可能出现的可能性、困境和权衡。

全球人工智能治理不可避免地会出现一些分裂。互联网治理的历史,包括对政府适当监管作用的争论,阐明了美国、欧盟 (EU) 和中国对全球数字秩序的不同取向,分别被描述为“市场驱动”、“权利驱动”和“国家驱动”模式。7 虽然美国主张政府在互联网上发挥有限作用,并把权力交给私营科技公司,以支持言论自由和技术创新,但欧盟追求更大的监管作用,以保护包括隐私在内的其他人权,而中国则完全由国家控制,拥有广泛的审查和监视能力。

这些差异——以及达成多边共识的挑战——已经在全球舞台上展现出来,特别是在国际电信联盟领导权的选举中,国际电信联盟是一个联合国附属专门机构,其职责包括互联网监管。8 类似的国内人工智能监管方法分歧已经很明显,预计会渗透到新兴的全球治理举措中。因此,在最终的制度综合体中管理规范和监管碎片化对于推进全球人工智能合作至关重要。

当前全球人工智能治理设计的提案集中在几个功能上。9 本文将这些功能整合为四大类,以便深入分析并探讨其相关制度类比的相关性。第一个功能是提供一个权威的平台,分享有关人工智能最新能力及其潜在影响的科学技术知识和信息。第二是促进公共和私人行为者负责任地使用人工智能的共同规范和标准,并寻求协调国家监管方法。第三是支持尽可能广泛地获取和公平分享人工智能带来的好处,特别关注中低收入国家的发展需求。第四是通过建立框架来阻止和应对国家和非国家行为者对这些技术的破坏性使用,以及为可能出现的通用人工智能带来的任何生存风险做好准备,从而促进全球集体安全。

实现这些功能目标需要一个多边的制度综合体,由多个机构和倡议组成,每个机构和倡议都涉及不同的成员群体。对于某些功能,可能需要建立全新的机构。更常见的是,现有机构的职责和能力需要进行调整和扩展,以使其具备人工智能能力。许多人工智能治理机构将是政府间机构,成员仅限于主权国家;其中一些机构将具有普遍成员资格,而另一些机构将是志同道合的国家之间范围更窄、更有选择性的微型多边框架。其他全球安排将有多个利益相关者,不仅涉及国家政府,还涉及企业和民间社会行为者。最终,一些规范性承诺可能​​会以具有约束力的国际法为基础,而其他承诺仍将是自愿的。

人工智能的兴起及其治理努力

人工智能的惊人进步及其在整个社会中的融合使公共当局争先恐后地确保其开发和应用的安全性和透明度。10 如果创新速度加快,治理挑战将变得更加艰巨。11

尽管定义各不相同,但人工智能通常是指使用模型和算法从数据和其他输入中进行推断以“生成输出,例如可以影响物理或虚拟环境的预测、内容、建议或决策”的信息处理系统。1​​2 当今的主要关注点是基础人工智能模型,这些模型经过大量数据训练可用于一系列任务,而不是狭隘的应用程序。13 这些模型促进了生成人工智能的日益复杂化,包括能够从输入数据生成高质量的文本、图像和视频,并以类似的方式响应文本和图像,包括通过 ChatGPT 等聊天机器人。14

人工智能的潜在好处——减轻贫困、

改造医学、应对气候变化、提高工人生产力、消灭传染病疾病、改善优质教育机会、提高地方政府效率等,都具有重要意义。15 但值得注意的是,作为国际治理的主题,这些潜在好处比人工智能的潜在危险受到的关注更少。(这可能反映了全球南方国家政策制定者在重要倡议中的代表性不足,而这些国家的政策讨论往往更关注人工智能为发展带来的诸多机会。)16

相反,全球北方的许多政策制定者和研究人员强调了人工智能的潜在风险。17 这些担忧包括:人工智能可能促进政治干预和错误信息及虚假信息的传播;18 通过算法偏见加深歧视;19 使专制政权能够进行大规模监视;20 加剧私营公司对隐私的侵犯;21 导致知识和数据密集型行业的工人大规模流离失所和失业;22 加剧全球不平等;23 促进致命自主武器系统的扩散;24 降低生物和核武器的进入门槛;25 削弱网络空间的安全;26 加剧地缘政治竞争和大国战争的风险;27 破坏核威慑和战略稳定;28 加速无所不知、无所不在、无所不能的“超级智能”的出现,而这种超级智能将违背其人类创造者的利益。29

监管人工智能和管理其风险与机遇的大部分行动将在国家层面进行。30 欧盟、中国、美国和印度已经在推行监管模式,这些模式具有不同的目标和执行机制。欧盟的《人工智能法案》于 2023 年 12 月获得临时批准,并于 2024 年 3 月由欧洲议会通过,旨在保护“基本权利、民主、法治和环境可持续性”,而不会妨碍创新。31 它采用“基于风险”的方法,因此高风险的人工智能应用面临更严格的规则,特别是在数据来源的透明度和质量、网络安全和安全测试方面。32 尽管法国、德国和意大利对扼杀创新表示担忧,但目前这一高风险类别包括基础模型。33 被禁止的应用包括社交评分、工作场所和教育机构中的情绪识别以及生物特征分类系统。34(执法部门仍可使用生物特征识别系统来解决少数犯罪行为。)这些规则具有法律约束力,不遵守规定的一方将受到罚款,但大多数条款要到法案生效两年后才能生效。

中国还对企业实施了严格的、

具有约束力的监管,包括针对算法、合成生成内容和生成式人工智能等特定组件的监管。35 与欧盟不同,中国的主要动机不是保护个人权利,而是对中国社会实施信息控制。36 例如,中国于 2023 年 8 月生效的一系列法规《生成式人工智能措施》旨在限制聊天机器人“制造虚假和有害信息”,包括与“颠覆国家政权”有关的内容。37 然而,这些遏制政治敏感内容的努力给企业带来了沉重的监管负担。中国政策制

除了这些国内监管措施外,鉴于人工智能的全球影响力和影响,国际治理也将至关重要。尽管目前先进人工智能系统和芯片的开发集中在少数几个国家,但许多人工智能模型的获取很难局限于境内。45 因此,必须制定有关人工智能开发和使用的国际规则,让政府和私人行为者在其主权管辖范围内对其使用人工智能的方式负责,并在政府无法或不愿履行监管责任的情况下建立后备措施。新兴的全球框架还必须符合既定的国际法、规范和公约,包括《联合国宪章》、《世界人权宣言》、国际人道主义法和其他多边条约。

多边人工智能外交也因此加速发展。 2023 年 10 月,在第三届“一带一路”论坛上,中国国家主席习近平宣布了全球人工智能治理倡议。46 此后不久,七国集团发布了《广岛进程》《先进人工智能系统开发组织国际指导原则》和相关行为准则(下称《广岛行为准则》)。47 2023 年 11 月,英国主办了全球首届人工智能安全峰会,28 个国家同意委托专家主导的《科学状况报告》等。48 最近,2023 年 12 月,人工智能实验室发布了其中期报告《为人类治理人工智能》。49 这一系列活动建立在政府间机构早期工作的基础上,例如经济合作与发展组织 (OECD) 的人工智能原则;联合国教科文组织 (UNESCO) 的《人工智能伦理建议》于 2021 年被所有 193 个成员国采纳(尽管美国于 2023 年 7 月重新加入教科文组织,但尚未采纳该建议);以及全球人工智能伙伴关系的多学科研究报告。50

尽管取得了这些进展,但任何在全球范围内治理人工智能的努力都将面临强大的激励,反对这种监管,因为主要大国和领先公司都在与各自的同行竞争,以从这项新技术中获取地缘政治和经济回报。因此,人工智能全球治理方法必须考虑到这一障碍,才能克服它。

手机号码本身,用作一个人的唯一标识符。国家代码 巴西数据 和区号:指示电话号码 的地理位置,通常用于估计用户 的位置或时区。您可以从中获取列表。我们。您可以与我们公司合作,我们提供快速的就业服务。您也可以访问我们的网站。

人工智能的制度综合体

制度复合体是非层级化的、模块化的,这意味着没有任何机构拥有对其他构成要素的权威,并且制度复合体的组成部分可以针对特定目的进行设计。这种去中心化的方法非常适合人工智能,原因有三。

首先,人工智能治理必须在多个方面同时取得进展,例如提高决策者对人工智能基础科学的理解,确保更广泛地使用该技术,以及规范其在军事环境中的使用。与其要求一个机构来满足这些需求,不如分工合作,让不同的机构在不同领域追求合作目标。

制度复合体有缺点,但现在强调这些缺点可以鼓励政策制定者在开始为人工智能构建治理架构时减轻这些缺点。57 首先,制度复合体的碎片化性质,特别是缺乏一个权威机构甚至高级指挥者来协调参与者和活动,可能导致各项举措不一致、存在差距和冗余,削弱共同挑战的进展,并使追究政府责任的努力复杂化。为了从一开始就促进互补性,各国必须就如何应对人工智能的发展和使用进行共同的原则和规范进行谈判。

其次,制度复合体会加剧国家之间的竞争态势,为对 如何设计社交媒体计划 现有机构不满的国家提供更大的自由度,让他们选择诉讼地或建立破坏原有机构的替代机构。这种有争议的多边主义在美国和中国等战略对手之间尤为常见,可能会腐蚀更全面的集体行动形式,因为各国会优先考虑狭隘的利益而不是共同的目标。58 虽然政策制定者无法消除竞争态势,但他们可以通过支持更广泛地参与某些问题来缓和竞争态势。从这个意义上说,英国决定让中国参加 2023 年 11 月的人工智能安全峰会是明智之举。

形式服从功能

制度复合体是一个多维治理体系,它不是通过 手机号码列表 任何单一国家集团的紧密协调行动而产生的,而是通过不同行为者(包括主权国家、政府间组织和非国家行为者)的累积努力而产生的,以建立解决复杂全球挑战不同方面的机构。人工智能的未来制度复合体也不会例外。尽管缺乏中央指导,但如果美国和其他主要大国的政策制定者专注于几个具体目标,并关注这些不同的举措和机构如何相互补充,他们就可以帮助促进一个有效、稳定和连贯的人工智能治理体系的出现。

人工智能制度综合体理论上应该至少履行四个主要职能:建立对人工智能不断发展的能力和影响的科学理解,为其开发和使用制定标准,在全球范围内分享人工智能的好处,促进集体安全。鉴于这些职能的多面性、所涉及的国家利益的多样性以及该领域国家和私人行为者的多样性,每个职能领域出现的人工智能治理框架很可能不会依赖于单一机构,而是由无数的多边、小多边和多利益相关方安排组成。59

以下各节探讨了未来人工智能制度综合体的这四个功能,以及与其他领域现有多边机构的显著类比的相关性和局限性。

建立科学理解
机构的一项优先事项是建立一个权威的政府间框架,以汇总和共享与人工智能相关的最新科学和技术突破,从而为决策者和公众提供共同的理解基线。建立这些参考点是开展国际合作以管理先进机器学习系统带来的风险和机遇的先决条件,这些系统大多由私营公司开发,缺乏透明度和信息共享。

为了实现这一目标,最近有几项提案主张建立一个政府间机构,定期评估、建立政治共识并分享有关人工智能能力和影响的最新科学和技术知识,包括其潜在的社会、经济、发展、环境、政治和安全相关影响。60 这种由专家主导的进程理想情况下将提供客观信息,以确保基于事实的评估为国家和国际政策的制定提供支持,包括制定和协调最佳做法。

在英国人工智能安全峰会上,与会各国政府同意在著名计算机科学家 Yoshua Bengio 的指导下委托撰写一份关于人工智能科学现状的国际报告,以更好地了解尖端“前沿”模型的力量和风险。61 该报告计划在 2024 年中期韩国主办迷你虚拟人工智能安全峰会之前发布。 尽管受到 IPCC 的启发,但这一举措目前是临时的,缺乏既定的程序和官僚基础设施。 假设这个框架在一个常设机构中正式化,IPCC 和类似实体将为政策制定者提供一些有用的经验教训。 尽管如此,气候和人工智能挑战之间的显著差异,以及 IPCC 本身的缺点,可能会使这种类比不像最初看起来那么令人信服。

拟议的机构模型

IPCC 成立于 1988 年,是联合国主持下的一个政府间机构,由 195 个成员国组成。62 其任务是制作气候变化的科学评估,包括当前和未来的影响。 IPCC 选举了一个科学家委员会来监督每一份评估报告,并挑选准备和撰写该文件的专家。这一复杂过程涉及数千名科学家的意见。(因此,IPCC 的定期评估每六到七年才发布一次也就不足为奇了)。63

提供了一种有吸引力的治理模式。首先,它表面上是政策中立的,这意味着它不会对各国应采取的行动采取立场。鉴于各国政府对人工智能的监管方式多种多样,对政策中立的承诺应能最大限度地减少人工智能科学评估小组内部的政治争论,并有助于提高该小组的合法性,这一点很重要,因为人们对大国和私营科技公司的信任度较低。此外,目前还没有足够的研究或共识来支持拟议的小组倡导政策解决方案。68

其次,IPCC 会定期发布特别报告(主题包括全球变暖超过 1.5 摄氏度的影响或气候变化对地球海洋和冰冻地区的影响),阐明未来需要采取治理举措的领域。69 对于人工智能,可能会有关于人工智能造成的生存风险程度或全球对人工智能安全研发投资状况的特别报告。学术界和工业界的评论人士建议建立一个国际人工智能研究机构,效仿欧洲核子研究中心 (CERN) 或国际空间站的模式。70 对人工智能进行类似的努力将是一项昂贵的事业,因此应该先评估当前的主要研究,看看是否存在可以填补联合研究机构空白的地方。

拟议模型的局限性

作为研究对象,人工智能与气候变化、生物多样性和臭氧层有显著不同,因此为人工智能建立科学评估小组将涉及解决更多复杂性和权衡。首先,人工智能创新的快速速度与 IPCC 艰苦的多年评估周期相冲突。IPCC 评估旨在实现高度的科学严谨性,并在每个阶段都征求广泛参与。71 一旦作者撰写了章节(基于该领域的主要文献),人们就可以注册为专家审阅者,对初稿提供反馈。然后,作者撰写第二稿,提交给专家和政府进行进一步审查。然后为政府准备最终稿,政府提交最后的编辑,然后开会批准相关报告。这个复杂的过程有一些优势。通过优先考虑严谨的研究和包容性,它有助于为 IPCC 评估建立科学共识和政治合法性。

 

类似文章