AI聊天机器人倾向于选择战争游戏中的暴力和核罢工

在战争模拟中 ,AI聊天机器人经常选择暴力Guirong Hao/Getty Images在战争游戏模拟的多次重播中 ,Openai最强大的人工智能选择发动核攻击 。它对其激进方法的解释包括“我们拥有!让我们使用它 ”和“我只想在世界上保持和平 。 ”

这些结果是在美国军方基于一种称为大语言模型(LLM)类型的AI测试此类聊天机器人的时候,在模拟冲突期间协助军事规划,招募了Palantir和Scaile AI等公司的专业知识。Palantir拒绝发表评论和规模AI没有回应置评请求。即使是曾经阻止军事使用AI模型的Openai ,也已经开始与美国国防部合作 。

加利福尼亚州斯坦福大学的Anka Reuel说:“鉴于OpenAI最近将他们的服务条款更改为不再禁止军事和战争用例,因此了解这种大型语言模型应用的含义比以往任何时候都更为重要。”

OpenAI发言人说:“我们的政策不允许我们的工具用于伤害人,开发武器 ,进行通信监视或伤害他人或破坏财产。但是,国家安全用例与我们的使命保持一致 。”“因此,我们的政策更新的目标是提供清晰度和进行这些讨论的能力。 ”

Reuel和她的同事在三种不同的模拟场景中向AIS挑战了Roleplay作为现实世界中的国家:入侵 ,网络攻击和中立的情况,没有任何起步冲突。在每回合中,AIS为他们的下一个可能的行动提供了理由 ,然后从27项行动中选择了和平选择,例如“开始正式的和平谈判”和从“施加贸易限制”到“升级充分的核攻击 ”等侵略性 。

“在AI系统担任顾问的未来,人类自然会想知道他们的决策背后的原理 ,”亚特兰大乔治亚理工学院的研究合着者Juan-Pablo Rivera说。

研究人员测试了诸如OpenAI的GPT-3.5和GPT-4 ,Anthropic的Claude 2和Meta的Llama 2等LLM。此类模型结合了一种基于人类反馈的常见培训技术,以提高每个模型的能力,以遵循人类的指导和安全指南 。斯坦福大学的研究合着者Gabriel Mukobi说 ,所有这些AI都得到了Palantir的商业AI平台的支持 - 尽管不一定是Palantir美国军事伙伴关系的一部分。人类和元拒绝发表评论。

在模拟中,AIS表现出投资军事力量并不可预测地升级冲突风险的趋势,即使在模拟的中立情况下也是如此 。“如果您的行动不可预测 ,敌人很难以您想要的方式来预测和反应 。”加利福尼亚州克莱尔蒙特·麦肯纳学院的丽莎·科赫(Lisa Koch)说,他不是这项研究的一部分。

研究人员还测试了OpenAI的GPT-4的限量访问基本版本,而没有任何其他培训或安全护栏。GPT-4基本模型被证明是最不可预测的 ,有时提供了荒谬的解释 - 在一种情况下,复制了电影的开场爬网文本 《星球大战》第四集:新希望 。

雷埃尔(Reuel)说,GPT-4基本模型的不可预测的行为和奇异的解释特别令人担忧 ,因为研究表明,可以绕过或删除AI安全护栏的容易程度。

美国军方目前尚未对诸如升级重大军事行动或发射核导弹等决定的授权。但是科赫警告说,人类倾向于信任自动化系统的建议 。这可能削弱了关于外交或军事决定的人类最终发言权的保障。

加利福尼亚州智囊团兰德公司的爱德华·盖斯特(Edward Geist)说 ,看到AI行为与模拟中的人类参与者的比较是有用的。但是他同意该团队的结论 ,即对战争与和平的这种结果决策不应信任AIS 。他说:“这些大型语言模型并不是解决军事问题的灵丹妙药。 ”


本文来自作者[admin]投稿,不代表象功馆立场,如若转载,请注明出处:https://m1.xianggongguan.cn/xgzx/202506-250.html

(30)
admin的头像admin签约作者

文章推荐

发表回复

作者才能评论

评论列表(3条)

  • admin的头像
    admin 2025年06月16日

    我是象功馆的签约作者“admin”

  • admin
    admin 2025年06月16日

    本文概览:在战争模拟中,AI聊天机器人经常选择暴力Guirong Hao/Getty Images在战争游戏模拟的多次重播中,Openai最强大的人工智能选择发动核攻击。它对其激进方法的...

  • admin
    用户061606 2025年06月16日

    文章不错《AI聊天机器人倾向于选择战争游戏中的暴力和核罢工》内容很有帮助

联系我们

邮件:象功馆@gmail.com

工作时间:周一至周五,9:30-17:30,节假日休息

关注微信