OpenAI发布了最新研究,用CoT监控的方式,可以阻止大模型胡说八道、隐藏真实意图等恶意行为,同时也是监督超级模型的有效工具之一。OpenAI使用了最新发布的前沿模型o3-mini作为被监控对象,并以较弱的GPT-4o模型作为监控器。测试环境为编码任务,要求AI在代码库中实现功能以通过单元测试。结果显示,CoT监控器在检测系统性“奖励黑客”行为时表现卓越,召回率高达95%,远超仅监控行为的60%。
扫码关注二维码
2025-03-06 10:41
2025-03-06 11:44
2025-03-07 11:30
2025-03-06 20:05
2025-03-04 11:06
2025-03-05 11:48
扫码加入社群
扫一扫
关注亿恩公众号