作为全球领先的人工智能(AI)大模型公司OpenAI近期悄悄修改了有关禁止其AI技术用于军事用途的禁令措辞,更宽泛的表述让外界加大了对于美国科技巨头加速与美军方深度合作的担忧。而这只是美国国防和军事领域与生成式AI紧密结合的冰山一角。五角大楼已成立了分析生成式AI如何用于国防领域的专门机构。
位于美国弗吉尼亚州阿灵顿的五角大楼。新华社记者 刘杰 摄
文|赵觉珵 任重
据美国调查新闻网站The Intercept近日报道,OpenAI在未经公开宣布的情况下对其政策页面进行了重大修改。此前,OpenAI表示“禁止将其大型语言模型用于任何军事或战争相关的应用”。修改后,表述为“OpenAI的产品不可以用来伤害自己或他人,包括通过武器的研发造成的伤害”。OpenAI发言人尼克·菲利克斯通过邮件对The Intercept表示,此次修改旨在使文件“更清晰”和“更具可读性”,但他拒绝透露定义模糊的“伤害”禁令是否包括所有军事用途。
美国Semafor网站报道称,OpenAI近日透露,OpenAI公司正在与五角大楼合作开展软件项目,包括与网络安全相关的项目。
OpenAI 资料图
据美国硅谷新兴科技媒体The Information报道,尽管OpenAI已经排除了直接开发武器的可能性,但其新政策可能会允许它向美国防部提供人工智能软件,用于帮助分析人员解读数据或编写代码等用途。但正如俄乌冲突所显示的那样,数据处理和战争之间的界限可能并不像OpenAI所希望的那样明确。乌克兰已开发并进口了用于分析大数据的软件,这使得其炮兵操作员能够迅速收到该地区俄方目标的通知,并大大加快他们的射击速度。
The Information警告称,政策的变化可能足以重新引发OpenAI关于人工智能安全的争论,正是这一争论导致了该公司首席执行官奥特曼被短暂解雇。
目前,美国军方对于他们如何以及在哪些具体军事项目中应用AI大模型讳莫如深,但从现有公开信息可以看出一些动向。去年8月,五角大楼宣布正式成立生成式AI工作组,该工作组被命名为“利马(Lima)”,将在分析和集成整个国防部的生成式AI工具(包括大语言模型)方面发挥关键作用。据五角大楼介绍,该工作组将在美国国防部首席数字和人工智能办公室(CDAO)的领导下工作,负责评估、同步和应用整个国防部的生成式AI功能,确保该部门在维护国家安全的同时保持在尖端技术的最前沿。美媒援引美国海军军官、“利马”工作组指挥官席尔瓦·卢戈的话称,“在国防中采用AI技术不仅涉及创新技术,还涉及增强国家安全。国防部认识到生成式AI在显著改善情报、运营规划以及行政和业务流程方面的潜力。”
在去年9月接受美国防务网站Defensescoop采访时,卢戈强调,关于生成式AI最终会以何种方式以及出于什么目的被美军方大规模部署,仍然存在许多未知数。
尽管卢戈将AI大模型的应用描述为具备不确定性,但分析人士已经从中看到广泛的前景。美国网站WarontheRocks近日称,与美国国防部合作的商业人工智能公司Scale AI的一个志愿者团队改编了由美国海军陆战队高级作战学院主办的一场演习,并开发出一款用于军事规划的实验性大语言模型“赫尔墨斯”。报道称,该实验表明,有必要开始将AI大模型集成到军事规划中。大语言模型有助于军事规划者更好地了解作战环境,并确定如何更好地理解时间、空间和部队方面的概念。
美国五角大楼(资料图片)
有分析认为,美国政治制度中的“旋转门”已经在AI业界和政界、军界之间加速旋转。领导美国国防部首席数字和人工智能办公室的克雷格·马泰尔曾担任Lyft公司的机器学习主管;去年4月,五角大楼宣布任命苹果公司高管贝克为其下属国防创新部门(DIU)的主任;谷歌公司前CEO埃里克·施密特在退休后,摇身一变成为五角大楼的科技顾问。
Semafor网站称,近年来硅谷在与美国军方合作方面的立场有所软化。2018年,数千名谷歌员工对于参与五角大楼Project Maven项目进行抗议,担心他们开发的技术可能被用于致命目的。这是硅谷反对与美国军方合作的一个代表性案例。美国“连线”网站称,Project Maven项目风波三年后,谷歌向五角大楼示好。谷歌发展的国防投资组合包括一个通过将机器学习应用于无人机图像来检测海军舰艇腐蚀的项目,以及另一个为空军提供飞机维护支持的项目。谷歌还向五角大楼的国防创新部门提供云安全技术,该部门的成立是为了帮助国防部与科技公司更紧密地合作。谷歌还赢得了中情局一项大型云计算合同的一部分。
英国《金融时报》称,硅谷重启与美国军方的关系。一些科技公司正在后退,避免变得过于“相互勾连”,而另一些科技集团正在介入。加州Shield AI是一家帮助五角大楼在冲突地区建造无人系统的初创企业,联合创始人布兰登表示,每有一个谷歌退出的例子,就有一个微软进入。曾是“海豹”突击队队员的布兰登说:“有才华的工程师不愿与军队合作是假象。总的来说,你会发现一群热情的员工有兴趣帮助政府解决前沿问题。科技行业人士更普遍的情绪是,‘我宁愿与我们的政府客户并肩工作,也不愿在一些重大问题上袖手旁观’。”
“随着AI技术不断发展与普及,各国军事和防务部门对其的关注正在持续升温。而其中蕴含的风险和挑战也显而易见。可以想象一下,在未来战场一个能实时分析各种情报、提供精准决策建议的智能系统,将是多么强大的助力。”
中国信息协会常务理事、国研新经济研究院创始院长朱克力对记者表示,这个系统可利用大模型的强大分析能力,对海量情报进行筛选、整合和深度挖掘,帮助指挥官快速了解战场态势、作出正确决策。同时,在军事训练中大模型也可发挥重要作用,通过模拟复杂的战场环境,让士兵在虚拟世界中演练,不仅可提高训练效果,还能降低训练成本和风险。
军事专家宋忠平接受记者采访时分析称,随着大模型日益完善,将具备更强的辅助决策甚至主动决策能力。“可以说,未来谁能够占据AI的制高点,谁就会夺得战场的主动权。”宋忠平进一步分析称,AI的使用可能会让“无人战场”成为现实,甚至会出现“一方有人,一方无人”的局面,这种技术差距将会大大增加战场残酷性。
这种难以估量的风险还与AI目前的一大缺陷有关——幻觉。一些人工智能安全的倡导者警告称,AI可能制造虚假信息并将其作为真实信息传递出去,如果将人工智能驱动的系统集成到指挥和控制系统中,将会带来更大的风险。
朱克力表示,AI技术的误用或滥用可能带来严重后果。比如,一旦自动化武器系统失控,可能造成无辜人员伤亡。其次,AI技术的军事应用也可能加剧国际紧张局势。不排除一些国家利用AI技术来提升自己的军事实力,从而引发其他国家的担忧和反弹。