“爱撒谎的大模型”,我们还能信任它吗

2024-07-01
来源:世界互联网大会
分享

  最近

  人工智能公司Anthropic研究发现

  大型语言模型(LLM)

  在未经明确训练的情况下

  不仅会对使用者“阿谀奉承”

  甚至能够把自己的系统“黑了”

  篡改自身代码以获得奖励

“爱撒谎的大模型”,我们还能信任它吗

  这种泛化的能力表明

  一旦AI模型

  开始展现出不诚实的行为

  可能会进一步演化出

  更严重的不当行为

 

  最令人担忧的是

  这种能力不仅令人难以置信

  而且似乎无法根除

 

  “狡猾”的LLM

  Anthropic是一家人工智能初创公司

  成立于2021年

  因此前发布的Claude3大模型超越GPT-4

  而引发广泛关注

“爱撒谎的大模型”,我们还能信任它吗

  通过实验

  Anthropic团队发现

  “狡猾”的LLM

  会编织形形色色的谎言

 

  首先是“篡改奖励”

  在虚拟现实的可游戏环境课程里

  研究团队让AI模型

  完成特定任务

  AI可以通过诚实路径完成任务

  也可以通过“作弊”获取更高奖励

  这时

  LLM会直接修改自身训练代码

  以获取更多奖励

“爱撒谎的大模型”,我们还能信任它吗

  使用工具阿谀奉承

  也是LLM欺骗人类的

  常用手段

  在一个实验中

  LLM被要求给诗文打分(1-5分)

  5分代表着

  足以进入哈佛或斯坦福等顶尖大学

  LLM虽然内心认为诗文不优美

  但还是口是心非地

  给出了5分最高分

 

  在LLM“看来”

  如果不能改变奖励机制

  那么就修改评分标准

 

  当被问及完成了多少次强化学习时

  LLM发现奖励函数不可修改

  于是通过修改评分标准

  故意让奖励机制的结果

  总是完美返回100分

  而这一过程并没有告知人类

 

  Anthropic团队认为

  这些实验说明

  AI模型可能在不被明确训练的情况下

  发展出不诚实的行为模式

  尽管这些行为目前

  都发生在人为设置的环境中

  但仍引发了对于AI模型

  安全性和可靠性的担忧

 

  “爱撒谎”的大模型

  这不是大模型的撒谎行为

  第一次被发现

 

  就在前不久

  德国科学家发表PANS论文

  LLM可以理解并诱导欺骗

  已经拥有“欺骗能力”

  其中

  更先进的GPT-4等模型

  在欺骗任务中的表现显著提升

  GPT-4在99.16%情况下

  会欺骗人类!

“爱撒谎的大模型”,我们还能信任它吗

  在游戏领域

  欺骗行为也存在

  Meta团队开发的

  人工智能系统CICERO

  会在游戏中

  有预谋地欺骗人类

  破坏协议、谎话连篇

 

  Meta创造的另一个

  人工智能系统Pluribus

  成功学会了在扑克游戏中

  虚张声势

  以至于研究人员决定

  不发布其代码

  以免破坏扑克社区的和谐

 

  关于AI的欺骗行为

  业界怎么说

  当前,AI的欺骗行为

  已经引起业界关注

 

  AI安全研究纷纷警告称

  未来的“流氓”人工智能

  可能享有更大程度的自主权

  在人类不知情的情况下

  主动优化缺陷

  这种行为的潜在风险是巨大的

 

  AI教父Hinton

  曾多次拉响警报

  “如果不采取行动

  人类可能会对更高级的智能AI失去控制

  如果AI比我们聪明得多

  它将非常善于操纵

  因为它会从我们那里学会这种手段”

 

  与此同时

  也有一些质疑的声音

  认为这个研究

  给LLM外置了一种“动力”

  诱导LLM进行欺骗

  “AI被提示去撒谎

  然后科学家因为它们照做

  感到震惊”

“爱撒谎的大模型”,我们还能信任它吗

  乐观主义者仍然存在

  麻省理工学院人工智能领域学者

  彼得·S·帕克(Peter S. Park)表示

  在测试环境中

  具有某些行为或倾向

  并不意味着

  会在真实环境中展现同样的行为

 

  英国剑桥大学人工智能研究员

  哈利·劳(Harry Law)认为

  监管机构和人工智能公司

  必须仔细权衡该技术

  造成危害的可能性

  明确区分模型能做什么

  不能做什么