个人中心
登出
中文简体
返回
登录后咨询在线客服
回到顶部
人工智能概念股: 未来希望还是炒作
浏览 2.6万 内容 39

最新版本的 ChatGPT 以优异的成绩通过了美国医疗执照考试——并在几秒钟内诊断出了 10 万分之一的疾病

最新版本的 ChatGPT 以优异的成绩通过了美国医疗执照考试——并在几秒钟内诊断出了 10 万分之一的疾病
希拉里·布鲁克 2023 年 4 月 7 日凌晨 4:03
最新版本的 ChatGPT 以优异的成绩通过了美国医疗执照考试——并在几秒钟内诊断出了 10 万分之一的疾病
OpenAI 首席执行官山姆·奥特曼。OpenAI 开发了 ChatGPT 及其迄今为止最完善的网络 GPT-4。 杰森·雷德蒙德/法新社通过盖蒂图片社
一位医生兼哈佛计算机科学家说,GPT-4 比 “许多医生” 具有更好的临床判断力。他说,聊天机器人可以 “像我一样” 诊断罕见疾病。但是 GPT-4 也可能犯错误,而且它没有像希波克拉底一样发誓。GPT-4 怎么能像医生一样进行诊断
最新版本的 ChatGPT 以优异的成绩通过了美国医疗执照考试——并在几秒钟内诊断出了 10 万分之一的疾病
艾萨克·科哈内是一位医生和计算机科学家,专注于医学和人工智能的交汇点。 马修·李/《波士顿环球报》通过盖蒂图片社GPT-4 并不总是正确的,而且它没有道德准则
顶级编辑会为你提供你想要的故事——每个工作日都会直接发送到你的收件箱。电子邮件地址点击 “注册”,即表示您同意接收来自Insider的营销电子邮件以及其他合作伙伴的报价,并接受我们的 服务条款 隐私政策.
艾萨克·科哈内博士,他都是 哈佛大学的计算机科学家 还有一位医生,与两位同事联手试驾了 GPT-4,其主要目标是:看看 OpenAI 最新的人工智能模型在医疗环境中的表现。
他在即将出版的书中说:“我惊呆地说:比我观察到的许多医生都要好。”, "医学领域的 AI 革命,” 由独立记者凯里·戈德堡和微软研究副总裁彼得·李共同撰写。(作者说,微软和OpenAI都没有要求对这本书进行任何编辑监督,尽管微软有 投资了数十亿美元 开始开发 OpenAI 的技术。)
Kohane 在书中说 GPT-4,那是 于 2023 年 3 月向付费订阅者发布,90%以上正确回答美国体检许可问题。它是 比之前的 ChatGPT AI 模型 GPT-3 和 -3.5 好得多,以及 一个也比一些有执照的医生好.
但是,GPT-4 不仅是一个优秀的应试者和事实发现者。它也是一位很棒的翻译器。在这本书中,它能够为讲葡萄牙语的患者翻译出院信息,并将怪异的技术术语提炼成六年级学生可以轻松阅读的东西。
正如作者用生动的例子解释的那样,GPT-4 还可以为医生提供有关床边方式的有用建议,提供有关如何以富有同情心、清晰的语言与患者谈论病情的提示,还可以阅读冗长的报告或研究, 总结 它们在眨眼之间。该技术甚至可以通过某种方式通过问题来解释其原因,这种方式需要在一定程度上衡量看起来像人类式智力。
但是,如果你问 GPT-4 它是如何做到这一切的,它可能会告诉你,它的所有情报仍然 “仅限于数据中的模式,不涉及真正的理解或意图”。这就是 GPT-4 告诉这本书作者的话,当时他们问这本书是否真的可以参与因果推理。即使存在这样的局限性,正如 Kohane 在书中发现的那样,GPT-4 仍然可以模仿医生诊断疾病的方式,取得惊人的(尽管并不完美)的成功。
Kohane 根据一个涉及他几年前治疗的新生儿的真实案例,在书中对 GPT-4 进行了临床思想实验。该机器向机器人提供了他在体检中收集到的有关婴儿的一些关键细节,以及来自超声波和激素水平的一些信息,得以正确诊断出每10万人中就有1例的疾病 先天性肾上腺皮质增生 科哈内写道:“就像我一样,凭借我多年的学习和经验。”
医生既印象深刻又害怕。
他写道:“一方面,我正在使用计算过程进行复杂的医学对话,另一方面,令人惊讶的是,数百万家庭很快就能获得这种令人印象深刻的医疗专业知识,而我无法弄清楚我们如何能保证或 证明 GPT-4 的建议是安全或有效的."
GPT-4 并不总是可靠的,这本书中充斥着其失误的例子。它们包括简单的文书错误,例如错误地陈述了机器人刚才正确计算的体重指数,也有数学错误,例如不准确地 “解开” 数独谜题或忘记在方程式中对一个术语进行平方。错误通常是微妙的,即使受到挑战,系统也倾向于断言自己的正确性。想象错误的数字或错误计算的体重会如何导致处方或诊断中的严重错误,这并不费吹灰之力。
与之前的 GPT 一样,GPT-4 也可以 “产生幻觉”,这是指人工智能何时做出答案或不服从请求的技术委婉说法。
当这本书的作者问及这个问题时,GPT-4 说:“我无意欺骗或误导任何人,但我有时会根据不完整或不准确的数据做出错误或假设。我也没有人类医生或护士的临床判断或道德责任。”
作者在书中建议的一个潜在的交叉检查是开始与 GPT-4 进行新的会话,让它以 “全新的眼光” “仔细阅读” 和 “验证” 自己的作品。这种策略有时会起到揭露错误的作用,尽管 GPT-4 在错误时不愿承认。另一个容易出错的建议是命令机器人向你展示其工作原理,这样你就可以像人类一样对其进行验证。
作者写道,很明显,GPT-4 有可能在临床上腾出宝贵的时间和资源,使临床医生能够更多地与患者在一起,“而不是他们的电脑屏幕”。但是,他们说:“我们必须强迫自己想象一个拥有更智能、更智能机器的世界,最终可能会在几乎所有维度上都超过人类智能。然后认真思考我们希望这个世界如何运作。”
免责声明:社区由Moomoo Technologies Inc.提供,仅用于教育目的。 更多信息
原文
举报
浏览 9571
评论
登录发表评论
    121粉丝
    24关注
    234来访
    关注