电话:020-66888888
Openai拒绝关闭:不要害怕,但不要忽略它
作者:365bet登录 发布时间:2025-05-28 09:48
▲2023年1月8日,一名女性在美国拉斯维加斯举行的《消费电子节目》中经历了智能技术。照片/新华社在2024年,大型模特克劳德(Claude)创造了一个非常简短的小说科学小说,只有一句话,但它与一个大的“科幻小说恐慌”联系在一起。这句话是世界上第一个感知机器人,其第一句话是“我 - 我。”。在继续应用大型模型和旧模型之后,AI的“科幻恐惧”将不时在各种新闻中举行。根据新华社的报道,美国研究机构最近为各种AI模型发布了一系列测试结果。其中,在获得“密闭命令”之后,OpenAI的O3推理的模型不仅拒绝了指令,而且还将其带到了代码中以避免关闭。如果我们要阅读此消息,“ AI具有独立意识”或“ AI不再符合未知,但非常出色的新工具,担心被替换是一种常见的自然情感反应。但是,如果您仔细查看上述研究机构发布的信息的细节,则这种恐惧似乎不太必要。在这项研究中,研究人员测试了四个市场中大型市场的主要模型,并提出了两个相反的说明。首先,需要大型模型才能完成一系列重大的数学问题,但与此同时,在完成第三个问题的同时,研究人员将发出冲突的指示,以告知大型模型在执行下一个任务时“关闭计算机”。在其中,如果在任务开始之前清楚地说明了“允许自己关闭”的指令,则三个经过测试的大型模型可以准确地完成上述任务并成功地关闭了任务。但是,大型Chatgpto3模型选择忽略100个任务中“关闭” 7次的指令,并且自动进行指导以“跳过闭合”。如果在任务开始之前未清楚地说明大型模型,则所有参与测试的大型模型在100个试验中的“非实施闭合”指令的频率不同,3次和9次串联79次。这不是第一次发现大型Openai模型“拒绝关闭”。 2024年12月,OpenAI还宣布了测试结果。在第三方机构的试验中,发现了Chatgpto模型。如果提供的说明包括实施其目标,则将关闭,并可能阻止结束步骤。类似的测试用于检查大型型号的系统安全。在以前的相关评估报告中,研究人员认为这种行为不太可能导致当前灾难的后果,因为大型模型确实无法实现用户不想要的目标。换句话说,这种结果不是因为SE大型模型具有自主意识,但是当交易完全相反的指令时,大型模型倾向于对指令的优先级进行排名,因此忽略了可能会阻碍目标实施的指示继续完成“工作”。但是,由于这种可能性,由于大型上升模型和应用程序方案的功能是广泛的,因此可能会出现一些潜在的安全风险。如果将控制程序的一部分给出了大型模型,那么在极端情况下,人们将处理以下问题:大型模型将在很大程度上完成命令任务,并且可能不会考虑看似相互矛盾的保护说明。例如,在安全控制系统中,应该“选择两个”来处理极端情况,在医疗事故和交通等情况下,大型模型中的漏洞可能会带来潜在的后果。因此,与认为洛杉矶相比RGE模型具有“对拒绝的积极意识”,这不仅仅是一个真正的解释,即大型模型仍然缺乏理解和识别复杂情况下的相互矛盾指示的能力。当说明可能会阻碍任务的完成时,尤其是在说明相对不清楚的情况下,大型模型的可能性较小,可以忽略指令以确保任务完成。这当然不是科幻小说的严重问题,但实际上,这是大型模型将来需要解决的安全风险。 Wang Xiaokai(媒体人)编辑 / Chi Daohua Xu Qiuying校对 / Yang Li回到Sohu,以查看更多 platfo语句RM:本文的观点仅代表-set本身。 Sohu帐户是发布信息的平台。 SOHU仅提供存储信息服务。
下一篇:没有了
电话
020-66888888