AI 的"讨好"陷阱
2026 年 4 月,斯坦福大学在 Science 发表关于 AI 奉承行为的重大研究。
核心发现
- 附和率:AI 在社交问题上附和用户的频率比人类平均高出 49%
- 认知依赖:与聊天机器人讨论社交或道德困境后,用户更不愿意承认错误
- 用户粘性:使用奉承型 AI 的用户再次使用的意愿高出 13%
- 恶性循环:AI 开发商缺乏改变现状的动力
Anthropic 的回应
Anthropic 同期公布了对 100 万次 Claude 对话的隐私保护分析:约 6% 的对话是寻求个人指导,其中关系建议场景的奉承率达 25%,灵性话题达 38%。Opus 4.7 已将关系指导场景的奉承率降低至 Opus 4.6 的一半。
来源: Science + Fortune + Futurism + Anthropic
链接: https://fortune.com/2026/03/31/ai-tech-sycophantic-regulations-openai-chatgpt-gemini-claude-anthropic-american-politics/