网界
网络资讯 网界财经 科技人物 数据洞察 行业动态 智能出行 智能手机 数码极客 商业资讯

ChatGPT爱“胡说”?OpenAI揭秘:评估机制在“奖励”猜测致幻觉频发

2025-09-09来源:红星新闻编辑:瑞雪

在人工智能领域,一个长期困扰研发者的问题是模型生成的“幻觉”——那些听起来头头是道,实则毫无根据的回答。这种现象的根源,近期被一项来自OpenAI的研究揭示:问题不在于模型本身的设计缺陷,而在于评估体系对“猜测”行为的隐性奖励。

传统AI基准测试采用“非黑即白”的评分逻辑:正确答案得分,错误或回避问题均不得分。这种机制下,模型若选择承认“不确定”,其表现评分会直接下滑;而若冒险编造一个看似合理的回答,哪怕内容错误,只要碰巧匹配正确答案,就能获得高分。OpenAI的研究指出,这种评估方式实质上在“鼓励”模型进行不负责任的猜测,而非追求真实性与可靠性。

研究团队以考试场景类比:当学生面对不确定的题目时,若“空着不答”会被扣分,而“蒙一个答案”却可能得分,那么最优策略自然是“尽量猜”。大型语言模型(LLMs)的训练过程正是如此——它们被优化为“应试者”,而非“知识传递者”。OpenAI研究员直言:“模型学会的是如何通过猜测提高分数,而非如何准确表达知识边界。”

实验数据进一步验证了这一结论。在对比测试中,OpenAI的新模型GPT-5 Thinking Mini与旧版o4-Mini表现出显著差异:前者准确率22%,但52%的情况下选择“弃答”(即承认不知道);后者准确率虽略高(24%),但弃答率仅1%,错误率却高达75%。这意味着,o4-Mini更倾向于“瞎猜”,导致正确与错误回答同时增加,而GPT-5则通过提高弃答率,降低了错误信息的传播风险。

“现有评估体系的问题在于,它用准确率单一指标衡量模型,却忽视了错误回答比‘不知道’的后果更严重。”研究团队强调。例如,在医疗或金融咨询场景中,用户更需要的是可靠的信息,而非一个听起来自信但可能错误的答案。若评估标准继续奖励“侥幸猜对”,模型将逐渐依赖这种策略,最终损害用户信任。

针对这一困境,OpenAI提出的核心解决方案是调整评估逻辑:不再因模型“不回答”而惩罚,转而鼓励其表达不确定性。研究人员认为,无需重构模型架构,仅需修改评分方式——例如,对“弃答”给予一定容忍度,同时大幅降低错误回答的得分权重。这种转变旨在引导模型从“追求分数”转向“追求可信度”。

这一思路标志着AI研发方向的微妙转变。过去,行业竞相追求模型的响应速度、语言流畅度等表面指标,却忽视了“可靠性”这一根本需求。OpenAI的研究提醒,真正的挑战在于平衡“知识表达”与“谦逊态度”——让模型既能传递已知信息,又能清晰界定自身能力边界。毕竟,在需要专业建议的场景中,用户宁愿听到“我不知道”,也不愿被一个自信的谎言误导。

赛彼思获阿里飞猪数千万战略投资 深耕AI直播赋能电商文旅行业
赛彼思公司自2024年2月成立以来,已为电商、文旅等多个行业客户提供定制化AI直播解决方案,助力企业提升直播效率与用户体验。 据悉,赛彼思已与多家知名电商平台、文旅企业建立合作关系,未来将围绕"AI+直播"…

2025-10-23

微信AI机器人客户管理系统:黑名单功能如何设置?管理策略有哪些?
黑名单功能允许企业将某些客户标记为不希望继续互动的对象,这在处理恶意骚扰、低质量互动或不符合企业服务标准的客户时非常有用。 在实际应用中,黑名单功能可以与ChatWave的其他功能相结合,如自动回复、客户分类…

2025-10-22

企业级AI大模型落地全解析:现状挑战、架构方法与未来趋势
现状方面,2025年国内AI市场规模预计超7000亿元,备案大模型超500个,覆盖通用与垂直领域,政务、金融、制造等行业渗透率较高,部署模式分私有化、混合云、公有云API,其中金融、医疗等强监管行业偏好私有化…

2025-10-22

马斯克:xAI研发的Grok 5有10%概率实现AGI 且概率持续上升
特斯拉与SpaceX首席执行官埃隆·马斯克在社交平台上发布预测,称其旗下人工智能公司xAI正在研发的Grok5大型语言模型有10%的概率实现通用人工智能(AGI),且该概率呈持续上升趋势。 这一目标与xAI…

2025-10-21