电话:020-66888888
大型模型制作了幻觉,它完全归咎于人类的pua。
作者:365bet体育 发布时间:2025-09-12 09:39
众所周知,AI越强,当它开始说话时就越烦人。做您从未见过的事情是认真的。它也将属于比较大小的最简单问题。从两年前发行的Chatgpt到现已悄悄实施的DeepSeek v3.1,没有主要模型可以摆脱幻觉的阻碍。为什么大型模型不与幻觉分开?这个问题本身成为互联网上未解决的谜团,但是在上周Openai的一篇论文中,一个相对有趣的观点已经通过。 “人工智能护理的根本原因可能来自人类人工智会的培训过程。”简而言之,AI不好,但是让我们以错误的方式训练它,这是我们在CPU中的错。我们为什么要把它归咎于人们?为了解决这个问题,您需要从内部和外部层次了解大型模型。一方面,模型中大型训练的机制决定了它们自然而然的启动幻觉,这是AI幻觉的“内部回忆”。当培训模型时,该模型需要知道从大量文本中猜测下一个单词的能力。因此,只要句子似乎是个人词,该模型就会开始了解其结构,但有时该模型仅关注结构的研究。无法识别此句子是否正确。当我们询问模型时,该模型将优先考虑此句子并回答完整的答案,但问题是并非所有问题都会有一个明确的答案。 Samplewa,如果我们为火锅的照片拍照以确定大型模型,那么该模型将开始研究热锅的特性,并知道其头发是金色的,很长和很大的,与此同时,成为狗的可能性可能有92.5%。在上一个研究过程中,该模型能够知道狗与差异的某些特征T图片。因此,如果您将这些品质联系起来并判断它们,您会发现它很有可能是黄金猎犬。但是,如果我们更改问题,并询问一年和月亮出生的地方,那么大型模型就会感到困惑。模型可能无法学习这个问题。只看图像,没人知道狗的生日是什么时候。如果该模型仍在响应Toa粗略的答案,而只是积累了答案并将其扔掉,那将是一个我们经常称之为的幻觉问题。可以说,大型模型的本质是大型模型的本质。从另一个角度来看,大型模型的本质是单词链,但是正确回答的问题可以认为是适合我们的,而回答错误的问题将被称为对我们的幻想。另一方面,另一方面,我们练习大型模型和点并检查模型的方式也是一个“外部问题”,它使模型的问题更多rious。这是我今天问的生日问题。让我们简化培训过程:思考模型正确回答一个问题,添加一个点,如果问题是错误的,则不会添加额外的积分。因此,当被问及尼特(Nit)关于火锅的生日时,如果模型直接选择以不好的方式放置它,说我不知道​​,那么它的余生将只是一个零鸡蛋。但是,如果它开始猜测,我们只说日期将会回来,那么365个机会之一是正确的。一方面,有一个完全的失败,另一方面,有机会以百分之一的百分点正确回答。只要该模型选择盲目猜测,其最终平均标记总是比放弃答案要高。因此,为了获得更高的分数,对人的排名更高,更多的模型失去了说“我不知道”的权利。对于追逐标记的模型,盲目猜测已成为唯一的理性选择,Habang Hexthy是最精致的方法。 OpenAI研究人员还指出了当前各种大型模型的主要排名。结果,我们发现每个人都使用“仅正确区分错误”方法来测试大型模型的能力。衡量模型能力的最初问题成为一个“外部问题”,促使大型模型的幻觉。为了验证OpenAI的“以测试为重点”的心理影响中的多少,并发现它在实践问题时,旧的O4-Mini模型的准确率甚至比新的GPT-5模型高2%。但是以牺牲为代价,四分之三的问题被错误地回答,只有1%的问题被要求。 O4-Mini承认大型模型有局限性。在这方面,GPT-5在弥补。当您发现不知道的问题时,您将直接承认您不知道。这也是Openai认可的GPT-5。虽然能够应对的能力测试和专注于测试的教育变得更糟,它已经学会了承认其错误。在论文的最后,Openai还发布了许多有趣的观点:他们认为,对于大型模型,无法摆脱幻觉,他们只能找到避免它们的方法。因为无论模型有多大,找到文本的信息和原因的能力高,所以这个世界上应该有问题,没有答案。面对这些未解决的问题,该模型应该知道从测试中的教育中跳起来,并大胆地回答我不知道的。同时,与大型模型相比,小型模型更有可能实现自己的局限性。由于可能没有学习许多小型知识模型,因此他们会承认我不能做到这一点。但是,由于我学到了一些东西,因此在面对几个问题时,我可能会充满信心。结果,我没有完全学到它,而是故意回答E问题。好事变成了坏事,它们变成了幻想。最后,在人们指导模型时,我们还应该重新设计评估模型技能的方法,并重新设计模型培训系统以减少模型预测的可能性。这似乎有点合理,但是 - 我必须再说一遍。是一个没有幻觉的大型模型吗?以不同的方式说,如果是两年的时间,那么大型模型将回答所有不确定的问题:“对不起,我不知道”,那么Bad AI的用户的疯狂道歉和经验可能并不流行。实际上,在过去两年中,越来越多的研究发现了模型的创造力。幻觉实际上是彼此相适应的两个方面。没有幻觉的模型也可以与创建能力的同步。例如,仅发布GPT-5。尽管Openai使用了上面提到的许多方法来减少幻觉的可能性。但同样,整个模型变得不幸,没有欲望和愚蠢。另一侧同样的问题,GPT-5表示了沉默,因为有一天,许多人仍然与GPT4O有着甜蜜的关系,而当他们醒来时,Ultraman切断了所有旧模型。 GPT-5降低了幻觉的可能性,已成为一名冷酷的科学系学生。也许编写代码的能力变得更加强大,但是一旦到达聊天和文学创作的领域,它就会变得像一个cast割的白痴。你可以携带吗?因此,愤怒的网民发起了“ i -save 4o”在线活动。最终,Ultraman Sam承认自己的害羞,并将旧模特的许可重新开放给所有人。那么,蒙蔽模特的幻觉是一件好事吗?如果允许模型犯错误或什么都没犯错,则可能没有标准的答案,每个人的选择都不同。也许有一天,用户真的不喜欢AI“诚实”和缺乏光环。但是在Oth上嗯,有几年的人想要一个值得信赖的伙伴。撰写者:清晨编辑:江江面条线编辑器:Xuanxuan照片,起源:为什么语言模型
电话
020-66888888