您现在的位置是:静夜思网 > 热点

ChatGPT通过了美国放射学委员会的考试,但其收集信息的可靠性仍令人担忧

静夜思网2024-03-28 23:35:33【热点】8人已围观

简介科技日报记者 刘霞。加拿大科学家在16日发表的《放射学》杂志上发表了一篇新论文,称最新版本的ChatGPT通过了美国放射学委员会的考试,突出了大型语言模型的潜力,但也给出了一些错误的答案,表

科技日报记者 刘霞。过美国放

加拿大科学家在16日发表的射学收集《放射学》杂志上发表了一篇新论文,称最新版本的考试靠性ChatGPT通过了美国放射学委员会的考试,突出了大型语言模型的信息潜力,但也给出了一些错误的仍令人担答案,表明人们仍然需要检查他们提供的过美国放答案。


图片来源:物理学家组织网。射学收集

ChatGPT是考试靠性一种人工智能(AI)聊天机器人,它使用深度学习模型在巨大的信息训练数据中识别单词之间的模式和关系,并根据提示生成类似的仍令人担人类反应,类似的过美国放聊天机器人包含在谷歌和流行的搜索引擎,医生和病人也会使用这些搜索引擎来搜索医疗信息。射学收集但由于数据源不一定真实可靠,考试靠性工具会给出与事实不符的信息答案。

多伦多大学的仍令人担拉杰什·哈瓦那博士及其同事首先测试了基于GPT-3.5的ChatGPT的表现,以评估ChatGPT在美国放射学委员会考试中的表现,并探索其优势和局限性。研究小组使用了150道选择题,与加拿大皇家学院和美国放射学委员会的风格、内容和难度相当。这些问题不包括图像,分为低级思维问题(知识回忆、基本理解)和高级思维问题(应用、分析、综合)。可进一步细分为影像表现描述、临床管理、计算与分类、疾病关联等高级思维问题。

研究人员发现,基于GPT-3.5的ChatGPT正确率为69%,接近70%。该模型在低级思维问题上表现较好,正确率为84%,但在回答高级思维问题时表现不佳,正确率仅为60%。GPT-4的正确率为81%,高级思维问题的正确率为81%,远好于GPT-3.5。但GPT-4在低级思维问题上的正确率只有80%,答错了12个问题——GPT-3.5所有这些问题都得到了正确的回答,这引起了研究团队对GPT-4信息收集可靠性的担忧。

这两项研究都表明,ChatGPT倾向于提供错误的答案,仅仅依靠它来获取信息是非常危险的,因为人们可能没有意识到答案是不准确的,这是它目前面临的最大问题。目前,ChatGPT最适合激发想法,帮助编写数据摘要,并快速检索信息,需要验证其提供的事实答案。

很赞哦!(5657)