新西兰全搜索国际新闻直播间,美国哈佛大学的计算机科学家兼医生艾萨克·科哈尼(Isaac Kohane),与两名同事合作,测试了GPT-4,主要目标是看看OpenAI最新的人工智能模型在医疗领域的表现如何。他在即将出版的书籍《医学中的人工智能革命》中表示:“令我震惊的是:它的表现比我观察到的许多医生都要好。”

该书由独立记者凯瑞·戈德伯格(Carey Goldberg)和微软研究副总裁彼得·李(Peter Lee)合著。(作者表示,微软和OpenAI并未要求对该书进行任何编辑监督,尽管微软已投资数十亿美元开发OpenAI的技术。)

在该书中,科哈尼表示,GPT-4于2023年3月发布给付费订阅用户使用,正确回答美国医学执照考试问题的准确率超过90%。它是比以前的ChatGPT AI模型(GPT-3和-3.5)更好的考试者,也比一些持牌医生更好。

GPT-4不仅是一个好的测试者和事实查找者,它也是一个出色的翻译器。在该书中,它可以为讲葡萄牙语的患者翻译出院信息,并将晦涩的技术术语概括成六年级学生可以轻松阅读的内容。

正如作者用生动的例子解释的那样,GPT-4还可以为医生提供有关病床上态度的有用建议,提供如何用富有同情心和清晰的语言与患者谈论他们的病情的技巧,并能够迅速阅读冗长的报告或研究,并对其进行总结。该技术甚至可以用一种类似于人类风格的智能方式解释其问题的推理过程。

但如果你问GPT-4是如何做到这一切的,它很可能会告诉你,它的所有智能仍然“局限于数据模式,并不涉及真正的理解或意向性。”这是当书中的作者询问它是否能够进行因果推理时,GPT-4告诉他们的答案。尽管存在这样的限制,就像科哈尼在书中发现的那样,GPT-4可以惊人地模仿医生如何诊断疾病,尽管并不完美。

GPT-4如何像医生一样进行诊断

科哈尼在书中进行了一次临床思维实验,与GPT-4合作,基于他几年前治疗过的一个新生儿的真实案例。他向机器提供了一些关键细节,包括一次体格检查和一些超声波和激素水平的信息,机器能够像他一样正确地诊断出一种名为先天性肾上腺增生症的罕见疾病,患病概率为十万分之一。

科哈尼医生感到既震惊又恐惧。“一方面,我正在与一个计算过程进行复杂的医学对话,”他写道,“另一方面,同样令人惊讶的是,我很焦虑地意识到,很快数百万家庭就将获得这种令人印象深刻的医学专业知识的访问权,而我无法想象我们如何能够保证或认证GPT-4的建议是安全和有效的。”

GPT-4并不总是正确的,也没有道德指南

书中充满了它的错误示例。这些错误包括简单的文书错误,例如错误陈述机器几分钟前正确计算出的BMI值,数学错误,例如错误地“解决”数独难题,或者在方程式中忘记平方项。这些错误通常很微妙,而系统有一种倾向,在受到质疑时仍然坚称自己是正确的。可以想象,一个错位的数字或计算错误的体重可能会导致严重的处方或诊断错误。

像之前的GPT一样,GPT-4也会“幻觉”,即当AI编造答案或不遵守要求时的技术用语。

在被问及这个问题时,GPT-4表示:“我并不打算欺骗或误导任何人,但我有时会因为数据不完整或不准确而犯错误或做出假设。我也没有人类医生或护士的临床判断力或道德责任。”

在这本书中,作者提出了一种潜在的交叉检查方法,即启动一个新的 GPT-4 会话,让它用“新的眼睛”“重新阅读”和“验证”自己的工作。这种策略有时可以揭示错误,虽然 GPT-4 有些不愿意承认自己的错误。另一个发现错误的建议是命令机器人向您展示它的工作,以便您像人类一样进行验证。

显然,GPT-4 有潜力在诊所中释放出宝贵的时间和资源,使临床医生更多地关注患者,而不是电脑屏幕。但是,作者写道,“我们必须强迫自己去想象一个拥有越来越智能的机器的世界,最终也许会在几乎每个方面都超越人类智能。然后,我们必须认真考虑我们希望这个世界如何运作。”

※新西兰全搜索©️版权所有

敬请关注新西兰全搜索New Zealand Review 在各大社交媒体平台的公众号。从这里读懂世界!️