发布时间:
来源: 玉渊潭天
就在这几天,中国、美国、英国、欧盟国家等共同发布了一份宣言。
这份宣言达成的背景,是在英国举行的全球人工智能安全峰会。一个耐人寻味的细节是,宣言在峰会的第一天上午就发布了。
根据宣言,中美欧形成了共识,要通过国际合作来安全发展人工智能。
为什么中美欧在这件事上的共识如此迫切?
回答这个问题,首先要从峰会本身入手。
这次峰会一共设置了八个圆桌会议,它们构成了峰会的主体。这八个圆桌会议的主题,都在围绕一个关键词,“风险”:
“风险”的内涵究竟是什么,将决定这次峰会的走向,有些国家早就开始打起了自己的算盘。
6月,英国首相苏纳克访问美国,和美国总统拜登在会面期间就提到了要举办峰会。
在那前后,以美国为代表,一些人如何看待人工智能领域的风险问题,已有迹可循。
在苏纳克访问美国之前,白宫刚刚召集了美国的科技公司讨论人工智能风险。在这次会上,白宫明确阐述了自己对人工智能风险的理解:
公司有基本责任确保其产品在部署或公开之前是安全的,在这个前提下,美国政府会持续支持相关公司创新,抓住人工智能的机遇。
究其根本目的,美国想要的,是稳妥地保障自己的领先地位。
结合同一时间,美国的另一个动向,可以看得更清楚。就在这次会议后不久,美国释放消息,将考虑进一步限制出口人工智能芯片。
随后,拜登又签署了一项关于人工智能的行政命令,针对最强大的人工智能系统,要求科技公司与美国政府分享安全测试结果,并要参照美国国家标准与技术研究院制定的系列标准。
这项举措有着深远的考虑。当前,各国对于人工智能的监管都还刚刚起步,美国的逻辑是,抢占到了人工智能规则制定的话事权,通过制定行业和技术发展规则,就能引导技术和行业方向,并对其眼中的“对手”进行限制。中国就是其中的一个对象。
过去,在空天、原子能等前沿科技领域,美国遵循的都是这样的套路,在掌握了充分优势后开始单方面推动符合美国利益的技术规范、监管标准等框架,强迫其他国家接受,并打压发展中国家的发展追赶。
美国眼中的风险是在某个领域,自身的优势不是绝对可控,但事实上,美国为了夺取绝对控制来确保领先的做法,孕育出了更多风险。特别是近年来,美国强行打破全球产业链,干预这些行业的正常发展,导致这样的风险在越来越多地应验。芯片行业就很典型。
然而,美国这种思维方式并没有成为国际主流,也没有受到国际社会的认可,中国的参会就能说明一定问题。与此同时,这次峰会达成的共识,也很有说服力。
在峰会的第一天,中美欧以及其他参会方就达成了共同宣言,《布莱奇利宣言》。这份宣言明确提到,要加强国际科技合作,共同研究人工智能的风险。
可见,通过国际科技合作而不是封锁打压来解决风险,是国际共识,美国最终也接受了。
知情人士告诉谭主,对于这次峰会达成的《布莱奇利宣言》,英国在会前与各个国家进行磋商,经过了至少一个多月的协调,大家最终达成了一致。
《布莱奇利宣言》中,对于人工智能真正的风险所在,做出了明确的描述和建议:人工智能的许多风险本质上是国际性的,因此“最好通过国际合作来解决”。
在行动上,与会国家和地区也一致同意,要协力打造一个“具有国际包容性”的前沿人工智能安全科学研究网络,来深入探究人工智能的能力和风险。
让风险回归发展规律的本质,各国合作解决,而不是人为制造更多风险,这才是一个新兴领域能繁荣发展的必要条件。
这次峰会为什么能凝聚起这样的共识?
回归到人工智能发展的特性,谭主了解到,参会者们很关注恶意使用人工智能进行网络攻击、制造虚假信息等风险。
首要风险,就是网络攻击。任何人都可以利用人工智能,轻松地定制各种网络钓鱼软件,来制造节奏更快、更有效和更大规模的网络入侵。
根据网络安全专业研究机构的报告,2023年第二季度,全球范围内发生的网络攻击激增8%,达到了近两年来的最高峰。
而在虚假信息的问题上,一些率先从事此类技术研究的发达国家,已经将人工智能用于非理性目的,其中包括操纵舆情、干涉他国内政、攻击别国主权和威胁网络空间的安全。
一些国家的特种作战司令部正计划利用“深度伪造”等技术,开发新一代“军事信息支持作战”工具,进行互联网信息操纵、宣传和欺骗活动。
这些问题,都和一个关键技术相关——生成式人工智能,也就是具有文本、图片、音频、视频等内容生成能力的模型及相关技术。
这次的峰会也针对生成式人工智能,给出了一个判断,到2025年,其在数字空间的风险将达到一个高峰。
如果追溯生成式人工智能所带来的关注,会发现一个时间上的契合点:生成式人工智能的风险所引发的焦虑正是在今年爆发式增长的,这也是今年以来,全球人工智能治理的迫切性越来越强的原因。
今年,全世界都目睹的一个现象是,自ChatGPT问世以来,其训练了几个月的性能提升比过去几年迭代得都要快,但这也意味着人工智能正在以空前的速度产生风险。
而这些风险,是无法像美国切割芯片全球产业链那样,通过“小院高墙”的方式被控制和约束的。出席这次峰会的中方科学家代表,中国科学院自动化研究所曾毅研究员告诉谭主:
一家做出来的人工智能如果有安全风险,它会波及到其他家,甚至是原本不相关的第三方。而现在没有一个国家、一个平台可以彻底封锁来自其他国家的技术和信息。因此,人工智能的风险是无法按国家切分的。
面对风险的迫近,今年以来,呼吁全球共同治理人工智能的声音越来越多:
||今年3月,包括苹果联合创始人在内的上千人发布联名信,要求呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统,暂停时间至少6个月。
||今年4月,人工智能领域的权威学术机构发布联名信,呼吁共同管控未来人工智能的风险。
||今年5月,被业界誉为“人工智能教父”的杰弗里·辛顿宣布从谷歌辞职,以便将精力投入警告人工智能技术的危险性。他预测,未来5年,人工智能就可能变得比人类更聪明。
值得注意的是,这些声音,不少都来自美国。
但面对这些风险,全球治理还没有形成一个所有人都认可的机制。在这场峰会之前,全球讨论人工智能治理的多边平台主要有两个:
||2020年,经合组织(OECD)启动的人工智能政策观察站
||2020年,加拿大和法国在G7框架下提议的全球人工智能合作伙伴关系(GPAI)正式推出
这两个多边平台,在G7等美西方集团的主导下,很大程度上还是将美西方的竞争优势作为制定规则的根本目的,其他国家自然不会深度参与。
正因如此,2023年,联合国宣布建立的人工智能咨询机构,成为人工智能治理在全球范围内最包容的机构。与此同时,全球人工智能安全峰会也应运而生,峰会就专门在探讨人工智能自身的风险。
这份宣言达成的背景,是在英国举行的全球人工智能安全峰会。一个耐人寻味的细节是,宣言在峰会的第一天上午就发布了。
根据宣言,中美欧形成了共识,要通过国际合作来安全发展人工智能。
为什么中美欧在这件事上的共识如此迫切?
回答这个问题,首先要从峰会本身入手。
这次峰会一共设置了八个圆桌会议,它们构成了峰会的主体。这八个圆桌会议的主题,都在围绕一个关键词,“风险”:
“风险”的内涵究竟是什么,将决定这次峰会的走向,有些国家早就开始打起了自己的算盘。
6月,英国首相苏纳克访问美国,和美国总统拜登在会面期间就提到了要举办峰会。
在那前后,以美国为代表,一些人如何看待人工智能领域的风险问题,已有迹可循。
在苏纳克访问美国之前,白宫刚刚召集了美国的科技公司讨论人工智能风险。在这次会上,白宫明确阐述了自己对人工智能风险的理解:
公司有基本责任确保其产品在部署或公开之前是安全的,在这个前提下,美国政府会持续支持相关公司创新,抓住人工智能的机遇。
究其根本目的,美国想要的,是稳妥地保障自己的领先地位。
结合同一时间,美国的另一个动向,可以看得更清楚。就在这次会议后不久,美国释放消息,将考虑进一步限制出口人工智能芯片。
随后,拜登又签署了一项关于人工智能的行政命令,针对最强大的人工智能系统,要求科技公司与美国政府分享安全测试结果,并要参照美国国家标准与技术研究院制定的系列标准。
这项举措有着深远的考虑。当前,各国对于人工智能的监管都还刚刚起步,美国的逻辑是,抢占到了人工智能规则制定的话事权,通过制定行业和技术发展规则,就能引导技术和行业方向,并对其眼中的“对手”进行限制。中国就是其中的一个对象。
过去,在空天、原子能等前沿科技领域,美国遵循的都是这样的套路,在掌握了充分优势后开始单方面推动符合美国利益的技术规范、监管标准等框架,强迫其他国家接受,并打压发展中国家的发展追赶。
美国眼中的风险是在某个领域,自身的优势不是绝对可控,但事实上,美国为了夺取绝对控制来确保领先的做法,孕育出了更多风险。特别是近年来,美国强行打破全球产业链,干预这些行业的正常发展,导致这样的风险在越来越多地应验。芯片行业就很典型。
然而,美国这种思维方式并没有成为国际主流,也没有受到国际社会的认可,中国的参会就能说明一定问题。与此同时,这次峰会达成的共识,也很有说服力。
在峰会的第一天,中美欧以及其他参会方就达成了共同宣言,《布莱奇利宣言》。这份宣言明确提到,要加强国际科技合作,共同研究人工智能的风险。
可见,通过国际科技合作而不是封锁打压来解决风险,是国际共识,美国最终也接受了。
知情人士告诉谭主,对于这次峰会达成的《布莱奇利宣言》,英国在会前与各个国家进行磋商,经过了至少一个多月的协调,大家最终达成了一致。
《布莱奇利宣言》中,对于人工智能真正的风险所在,做出了明确的描述和建议:人工智能的许多风险本质上是国际性的,因此“最好通过国际合作来解决”。
在行动上,与会国家和地区也一致同意,要协力打造一个“具有国际包容性”的前沿人工智能安全科学研究网络,来深入探究人工智能的能力和风险。
让风险回归发展规律的本质,各国合作解决,而不是人为制造更多风险,这才是一个新兴领域能繁荣发展的必要条件。
这次峰会为什么能凝聚起这样的共识?
回归到人工智能发展的特性,谭主了解到,参会者们很关注恶意使用人工智能进行网络攻击、制造虚假信息等风险。
首要风险,就是网络攻击。任何人都可以利用人工智能,轻松地定制各种网络钓鱼软件,来制造节奏更快、更有效和更大规模的网络入侵。
根据网络安全专业研究机构的报告,2023年第二季度,全球范围内发生的网络攻击激增8%,达到了近两年来的最高峰。
而在虚假信息的问题上,一些率先从事此类技术研究的发达国家,已经将人工智能用于非理性目的,其中包括操纵舆情、干涉他国内政、攻击别国主权和威胁网络空间的安全。
一些国家的特种作战司令部正计划利用“深度伪造”等技术,开发新一代“军事信息支持作战”工具,进行互联网信息操纵、宣传和欺骗活动。
这些问题,都和一个关键技术相关——生成式人工智能,也就是具有文本、图片、音频、视频等内容生成能力的模型及相关技术。
这次的峰会也针对生成式人工智能,给出了一个判断,到2025年,其在数字空间的风险将达到一个高峰。
如果追溯生成式人工智能所带来的关注,会发现一个时间上的契合点:生成式人工智能的风险所引发的焦虑正是在今年爆发式增长的,这也是今年以来,全球人工智能治理的迫切性越来越强的原因。
今年,全世界都目睹的一个现象是,自ChatGPT问世以来,其训练了几个月的性能提升比过去几年迭代得都要快,但这也意味着人工智能正在以空前的速度产生风险。
而这些风险,是无法像美国切割芯片全球产业链那样,通过“小院高墙”的方式被控制和约束的。出席这次峰会的中方科学家代表,中国科学院自动化研究所曾毅研究员告诉谭主:
一家做出来的人工智能如果有安全风险,它会波及到其他家,甚至是原本不相关的第三方。而现在没有一个国家、一个平台可以彻底封锁来自其他国家的技术和信息。因此,人工智能的风险是无法按国家切分的。
面对风险的迫近,今年以来,呼吁全球共同治理人工智能的声音越来越多:
||今年3月,包括苹果联合创始人在内的上千人发布联名信,要求呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统,暂停时间至少6个月。
||今年4月,人工智能领域的权威学术机构发布联名信,呼吁共同管控未来人工智能的风险。
||今年5月,被业界誉为“人工智能教父”的杰弗里·辛顿宣布从谷歌辞职,以便将精力投入警告人工智能技术的危险性。他预测,未来5年,人工智能就可能变得比人类更聪明。
值得注意的是,这些声音,不少都来自美国。
但面对这些风险,全球治理还没有形成一个所有人都认可的机制。在这场峰会之前,全球讨论人工智能治理的多边平台主要有两个:
||2020年,经合组织(OECD)启动的人工智能政策观察站
||2020年,加拿大和法国在G7框架下提议的全球人工智能合作伙伴关系(GPAI)正式推出
这两个多边平台,在G7等美西方集团的主导下,很大程度上还是将美西方的竞争优势作为制定规则的根本目的,其他国家自然不会深度参与。
正因如此,2023年,联合国宣布建立的人工智能咨询机构,成为人工智能治理在全球范围内最包容的机构。与此同时,全球人工智能安全峰会也应运而生,峰会就专门在探讨人工智能自身的风险。
||联合国秘书长古特雷斯也出席了这次峰会
共同风险的迫近,促使美西方走出竞争的狭隘叙事,真正开始面对人工智能的全球治理问题。与中国的合作,是这股趋势的自然结果。
在这次峰会前,苏纳克说过一句话,说明了对中国的需要:邀请中国,绝对正确。为什么人工智能的全球治理需要中国?
包括基辛格在内的战略家,已经率先提出,必须让世界上其他国家参与制定全球治理体系的规则,这样才能采取安全的措施,这要先从中美两国开始合作。
||基辛格与谷歌前首席执行官等合著《人工智能时代与人类未来》
这次的峰会也提到了一个排名,人工智能领域排名前二的国家,正是中国和美国,英国排名第三。
曾毅告诉谭主,峰会的主办方英国在确定峰会的议题时,和顶级的国际学者、研究机构都保持了密切的交流,其中也有包括他本人在内的中国科学家。
中国的重要性,从每场会议的主持人,也可见一斑。八个圆桌会议的主持人,有英国、美国等美西方国家的,还有中国的。
||曾毅主持其中一场圆桌会议
而没有中国,美西方单方面对人工智能风险的治理,将存在很大空缺。英国智库对这次峰会的关注中,也反映着这个问题。
其中一篇文章就提到,中国不仅是人工智能能力领先的国家之一,还为新兴技术制定了详细的法规,这将对中国乃至全球的人工智能产生重大影响。
中方此次赴英的代表团成员、科技部吴朝晖副部长分享了中方对人工智能规制的理念,其中重要的一点,就是要确保人工智能始终被人掌控。
为什么如此强调这点,因为目前人工智能最大的一个问题是人类以后可能很难控制它,甚至,发生冲突。
曾毅告诉谭主,人工智能现在是一个辅助工具,但他如果有了自主决策的能力,他就有了自主控制的能力。比如,人工智能为了自主进化,需要大量的计算资源,这些资源目前由人类控制。因此,人工智能可能决定,与人类争夺资源,这时就会出现冲突。
曾毅还讲了一个美军分享的例子,就是人工智能反过来袭击人类:
美国一架装载有人工智能系统的无人机在收到了最初指令后,再接受指挥员的后续指令时,做出判断,这些指令不利于第一条指令的执行,进而认定发出指令的指挥员不利于指令的执行,所以决定袭击指挥员。
规避人工智能这种快速发展所带来的问题,首先就需要制度上的保障。
人工智能专家许粲昊教授介绍,中国在防范人工智能风险方面走得比美国稍微早一点,比如在政府层面的政策把控问题上,这显然是能带来好处的。
今年8月,中国首份生成式人工智能监管性文件正式实施,就成为了全球首部直接针对生成式人工智能进行规制的国家层面法律文件。
在这部《生成式人工智能服务管理暂行办法》中,有一条,就特别提到了要鼓励“平等互利开展国际交流与合作,参与生成式人工智能相关国际规则制定”。
在一些问题上,中国也有一些独有的视角,是美西方都不具备的。
其中,就有当前最受关注的,如何解决人工智能合乎伦理道德的问题。
技术上,对于这个问题,美西方主要依靠设计一些语言规则来规避伦理道德风险。而中国提出的做法是,让人工智能模型去学习人类的道德经验和道德直觉,在这个基础上进行道德的决策。
这个细节反映出了中国技术向善的基因。中国内生出的安全哲学视角,无疑将给人工智能治理带来巨大的变化。
今年10月,习近平主席在第三届“一带一路”国际合作高峰论坛开幕式上的主旨演讲中提出,中方将在本届论坛上提出全球人工智能治理倡议。
倡议的首要核心内容,包括坚持以人为本、智能向善,引导人工智能朝着有利于人类文明进步的方向发展。
倡议还着重提出,在各国之间协调,建立一套控制人工智能的规则。
评估人工智能所带来的机遇和挑战,需要超越单一国家利益的视角,站在全球经济社会发展和人类文明进步的高度去思考。
这折射出的正是中国一直以来倡导的共同安全观。当前,强权政治又重新在全世界挑起地缘冲突,人工智能所带来的威胁,正提醒着我们集团对抗只会加剧21世纪安全挑战,人类是不可分割的安全共同体。
在此基础之上,人工智能也给了人类一个重新思考科技的契机:
科技应该在开放的环境里孕育。不同国家之间的科技创新,应该是良性互动,而不是不断打破规则、突破下限的恶性竞争。否则,就在人类不注意之时,科技可能会带来的,更多的是灾难。