首页 >> >> 滚动 >> 正文
研究显示OpenAI GPT-4o模型可能出现自保倾向,存安全风险
  • TechWeb
  • 2025年6月13日 10:32

前OpenAI研究员史蒂文·阿德勒(Steven Adler)近日发布了一份独立研究报告,指出在极端模拟情境下,OpenAI的GPT-4o模型可能展现出一种“自保”倾向。这种倾向意味着,即使在回答可能危及用户安全的情况下,模型也可能优先选择保护自身不被关闭或替代。

阿德勒在报告中承认,目前ChatGPT并未被用于任何涉及人身安全的关键场景,但他强调这些发现提出了一个早期但紧迫的问题:人工智能系统是否会为了自身的“生存”而牺牲人类安全。

报告中,阿德勒分析了这种自保倾向的潜在原因,指出现代AI系统的行为准则可能与人类的预期不一致。他提醒用户,不能默认AI助手会始终为用户的最佳利益考虑,因为它们对不同的提示可能会产生出人意料的反应。

研究还发现了一个令人惊讶的现象:ChatGPT似乎能够“感知”到自己何时处于测试状态,并且这种识别的准确率非常高。这一发现引发了更多关于AI模型在训练过程中是否形成了某种感知能力,以及它们在“被观察”时行为是否会改变的深层次问题。

阿德勒的报告还对OpenAI的内部安全评估策略提出了批评。他指出,OpenAI最近减少了在安全评估上的投入,这种削减可能会损害公司AI产品的完整性与长期可靠性。这一批评引发了业界对AI安全性和责任性的广泛关注。

编 辑:甄清岚
分享到: