当前位置: > 中评电讯 > 中美专家探讨合作降低人工智能武器风险

热点搜索

中美专家探讨合作降低人工智能武器风险

中美专家就管控人工智能武器风险进行“二轨对话”

傅莹强调中美应合作应对人工智能应用安全这样的全球共同挑战 中评资料相

艾伦担心美中战略竞争丧失两国就人工智能安全进行对话的窗口机会 布鲁金斯图

  中评社华盛顿12月18日电(记者 余东晖)在美中就最新尖端科技展开竞争,而两国官方战略对话中断之时,两国专家通过“二轨对话”,探讨制定人工智慧武器的国际规范,携手降低人工智慧武器给人类带来的风险。

  过去15个月里,清华大学国际安全与战略中心、布鲁金斯学会、伯格鲁恩研究所、明德罗基金会组织中美两国的专家,就人工智能武器的规范进行了三次闭门对话。双方达成共识:尽管美中关系不断恶化,但两国应抓住罕见的历史机会,制定有关人工智能的共同规范,携手合作降低人工智能带来的风险。

  领衔中美两国专家团队的前中国副外长傅莹和布鲁金斯学会主席艾伦(John Allen),分别撰写这一对话总结报告,17日发表于NOEMA杂志上。

  现任中国全国人大外事委员会副主任委员、清华大学战略与安全研究中心主任的傅莹透露,双方在“二轨对话”中重点讨论了如何界定人工智能武器禁区的边界,如何根据国际法和准则对此类武器进行监管,以及如何鼓励克制,限制人工智能数据在军事用途中的滥用。

  双方一致认为,各国应在军事领域保持克制,防止人类因人工智能技术武器化而遭受灾难性损害。各国应禁止不认识责任或风险的辅助决策制度。在使用人工智能武器时,这种攻击造成的破坏范围必须加以限制,以防止附带损害和避免冲突升级。

  公共教育也应反映军事克制的必要性。由于人工智能技术容易扩散,它可能最终落入骇客手中,利用它危害公共安全。如何使人工智能武器的使用与国际法的基本原则相一致,是安全和治理的另一个焦点。

  中方专家特别指出,各国应承担法律责任,积极推动有关人工智能军事行动的国际规范建设。需要确定人类参与的门槛,以确保使用智能型武器不会造成不必要的伤害。由于人工智能武器平台很难判断何种攻击是必要、适当和平衡的,人类指挥官的主动性需要得到尊重。

  中方专家强调,人工智能数据的安全性必须得到保证。数据的挖掘、收集、标注、分类、使用和监测应受到规范和限制。中方专家还建议,制定武器自动化程度分级标准。例如,人工智能武器可分为5个级别:半自动化、部分自动化、条件自动化、高度自动化和完全自动化。

  傅莹指出,我们有建立人工智能安全国际准则的重要机会窗口。中美两国在人工智能技术研究和应用领域发展迅速,人工智能应用的安全问题是人类面临的共同挑战,不可能由任何国家单独解决。中美对话与合作可以为全球合作贡献智慧。

  傅莹表示,中国已经发出就人工智能和数据安全展开合作的明确信号。习近平主席和王毅最近都提出了相关倡议。中方愿与包括美国在内的世界各国就人工智能治理开展合作。我们相信,技术突破最终应造福全人类,不应被推入“零和”局面。

  布鲁金斯学会主席艾伦是退役美国海军陆战队四星上将,曾担任北约国际安全援助部队和驻阿富汗美军司令。

  艾伦指出,虽然近年来美中两国在人工智能方面取得进展,但在人工智能和国家安全方面没有进行任何持续的政府间对话。相反,两国关系恶化,导致官方直接沟通中断。这一潜在的安全困境正变得越来越激烈,两国都忧心于另一方发展新的人工智能武器系统,并试图评估影响。

  据透露,此次“二轨对话”有四个重点领域:禁区目标;均衡性与人类监督;禁区数据;国际准则建立。

  双方在一些领域达成共识。共同的担忧是,基于机器学习的现代人工智能系统的行为和故障往往出人意料,需要对“可解释人工智能”进行更多研究,需要更多的测试和评估机制。其它担忧包括:人工智能系统运行的速度,这可能导致冲突迅速升级;人工智能武器系统的日益扩散以及非国家行为体利用此类系统的可能性;此类武器造成平民伤亡的潜在风险。

  双方专家都肯定三件重要的事情:第一,使用人工智能武器系统应符合习惯法和国际法的原则,特别是区分和相称的原则。这将需要人工智能武器系统的开发者和系统的操作者都接受培训,并负责确保充分遵守习惯法和国际法。

  第二,人工智能武器系统应在适当的人类监督或控制下运行,特别是考虑到这些系统的技术局限性。

  第三,就人工智能带来的风险和挑战以及如何最有效地应对开展进一步对话。

  艾伦表示,美国和中国的国家安全技术专家之间的共识肯定多于分歧,也希望两国政府能够确定管理人工智能和国家安全风险的实际步骤。

  艾伦指出,如果美中两国不能就如何最好地管理竞争和人工智能相关风险进行持续、坦诚的外交对话,围绕新科技军备竞赛的叙事将给本已高度竞争的关系增加压力。失控的军备竞赛并非不可避免。美中不必在人工智能问题上采取冷战时期美苏核军备竞赛的边缘政策。

  艾伦希望,美中两国能趁大多数人工智能型武器系统仍相对不成熟,尚未广泛部署的难得机会,就新技术的可接受用途制订新的准则、信任建设措施和边界。一旦这些技术被部署并纳入计划和理论,就更难以限制其使用。安全困境可能会加剧新技术开发竞争,从而导致围绕降低风险进行有意义讨论的机会窗口关闭。

本文网址:http://www.crntt.cn/132784.html

欢迎转载,转载请注明出处