
[CNMO技术新闻]最近,牛津大学的一项研究发现,大型语言模型的医学案例正确诊断的准确率已达到94.9%。它比许多医生高。但是,当普通人使用相同的AI工具处理相同情况时,其精度下降到仅为34.5%。原因是:AI不是绩效因素的限制,对我们的人们而言,可以防止AI发挥其全部潜力。来自外国媒体的CNMO了解到,由亚当·麦迪(Adam Madi)博士领导的这项研究吸引了约1300名参与者,每个人都收到了详细的案例情况,包括症状,医疗和个人背景历史记录。研究的目的是查看普通百姓是否可以使用人工智能来确定问题并确定他们正在寻找的治疗方法。参与者应将AI视为真正的医生,询问,描述症状并寻求帮助。研究人员使用三种不同的大语模型在实验中,尤其是:Chatgpt-4O,Llama 3和Command R+。研究人员发现,使用大语言模型的参与者可以在34.5%的病例中识别至少一个相关的状况。不使用AI的对照组表现更好,高达47%;在选择正确的行动计划时,大型语言模型的用户只有一个44.2%的机会正确回答;当简单地决定AI模型时,准确率为56.3%。问题是:有些人提供不完整或不清楚的信息;有些人忘了提及主要症状。有些人错过了时间或时间的严重性或时间。使AI不了解或错过重要线索。尽管人工智能提供了正确的诊断,但用户可能不需要这样做。这部分不是机器所独有的,人们会忽略医生的建议。根据CNMO的说法,一些AI工具已提请注意实际的医疗过程。例如,Doct使用开放式前传搜索和验证临床文献。它不用于取代医生,而是为了增强他们的能力。回到Sohu看看更多
平台语句:本文的观点仅代表-set本身。 Sohu帐户是发布信息的平台。 SOHU仅提供服务存储信息的服务。