個人中心
登出
中文繁體
返回
登入後諮詢在線客服
回到頂部
人工智能概念股:未來希望還是炒作
瀏覽 2.7萬 內容 42

chatgpt概念股的最新版本通過美國醫療執照考試,表現出色-並在幾秒鐘內診斷了1/100,000的控制項

chatgpt概念股的最新版本通過美國醫療執照考試,表現出色-並在幾秒鐘內診斷了1/100,000的控制項
Hilary Brueck 2023年4月7日上午4:03
chatgpt概念股的最新版本通過美國醫療執照考試,表現出色-並在幾秒鐘內診斷了1/100,000的控制項
OpenAI CEO Sam Altman。OpenAI開發了chatgpt概念股,以及其迄今為止最精煉的網絡GPt-4。 Jason Redmond / AFP通過盖蒂图片社
一位醫生兼哈佛計算機科學家表示,GPt-4的臨床判斷力比“許多醫生”都要好。這名聊天機器人可以診斷罕見疾病,就像我一樣,他說。但是GPt-4也可能出錯,而且它沒有宣誓過。GPt-4如何像醫生一樣診斷
chatgpt概念股的最新版本通過美國醫療執照考試,表現出色-並在幾秒鐘內診斷了1/100,000的控制項
Isaac Kohane是一位醫生和計算機科學家,專注於醫學和人工智能的交集。 Matthew J. Lee /波士顿环球报通过盖蒂图片社GPt-4並不總是正確的——它沒有道德指南針
頂級編輯為您提供您想要的故事-每個工作日直接送到您的收件箱。電子郵件地址點擊“註冊”,即表示您同意接收Insider以及其他合作夥伴提供的營銷電子郵件,並接受我們的 服務條款 隱私政策.
艾薩克·科漢,他既是哈佛的計算機科學家 又是哈佛的計算機科學家 和一位醫生合作的兩位同事,一起測試了GPt-4,主要目標是要看看OpenAI最新的人工智能模型在醫療環境中的表現。
“我感到震驚地說:比我觀察到的許多醫生都要好,”他在即將出版的書《醫學中的人工智慧革命》中說道。, "獨立記者卡莉·戈德堡和微軟研究副總裁彼得·李合著的《醫學中的人工智慧革命》。 (作者表示,微軟和OpenAI均未要求對該書進行任何編輯監督,儘管微軟已投資數十億美元用於開發OpenAI的技術。) 投資數十億美元 用於開發OpenAI的技術。)
In the book, Kohane says GPt-4, which was released in March 2023 to paying subscribers, answers US medical exam licensing questions correctly more than 90% of the time. It's a much better test-taker than previous ChatGPt AI models, GPt-3 and -3.5,以及 其他 better one than some licensed doctors, too.
GPt-4 is not just a good test-taker and fact finder, though. It's also a great translator. In the book it's capable of translating discharge information for a patient who speaks Portuguese, and distilling wonky technical jargon into something 6th graders could easily read.
正如作者用生動的例證解釋的那樣,GPt-4也可以給醫生有關與病人溝通的有用建議,提供如何以富有同情心、清晰的語言與病人談論其病情的技巧,並且能夠閱讀冗長的報告或研究, summarize 在眨眼之間將其總結。這項技術甚至可以通過某種程度類似人類風格智能的方式來解釋其推理過程。
但如果你問GPt-4它是如何做到這一切的,它可能會告訴你,它所有的智能仍然「僅限於數據中的模式,並不涉及真正理解或意圖。」這就是當作者問起它是否真的能夠從事因果推理時,GPt-4告訴這本書的作者的內容。即使有諸多限制,科哈尼在書中發現,GPt-4可以模擬醫生以令人驚訝但不完美的成功診斷疾病的方式。
科哈尼在書中與GPt-4進行了一個基於他數年前治療的一名新生兒的真實案例的臨床思想實驗。根據他在體檢中收集到的有關嬰兒的一些關鍵細節,以及來自超聲波和激素水平的一些信息,這台機器能夠正確診斷一種名為 先天性腎上腺增生 "就像我會做的那樣,憑借我多年的學習和經驗,科哈尼寫道。"
醫生既感到印象深刻,又感到恐懼。
「一方面,我正與一個計算機過程進行複雜的醫療對話,」他寫道,「另一方面,同樣令人震撼的是,數百萬家庭將很快獲得這種令人印象深刻的醫療專業知識,而我無法弄清楚我們如何能保證或」 認證GPt-4的建議是否安全或有效."
GPt-4並不總是可靠的,書中還充滿了其犯錯的例子。範圍從簡單的文書錯誤,例如誤述(機器人之前正確計算的)BMI,到數學錯誤,例如不準確地「解決」數獨,或在方程式中忽略平方項。這些錯誤通常微妙,系統有時會主張自己是對的,即使受到質疑也是如此。很容易想像如何一個放錯的數字或計算不準的體重可能導致嚴重的處方或診斷錯誤。
與先前的GPT一樣,GPt-4也可能「幻覺」--這是當人工智能捏造答案或不聽從指示的技術委婉說法。
在被書的作者問及這個問題時,GPt-4說:「我沒有打算欺騙或誤導任何人,但有時我會根據不完整或不準確的數據進行錯誤或作出假設。我也沒有人類醫生或護士的臨床判斷或道德責任。」
作者在書中建議的一個檢查方法是與GPt-4開始一個新會話,讓它用一雙「嶄新的眼睛」自己「檢查」和「核實」自己的工作。這種策略有時可以發現錯誤--儘管GPt-4在被證明錯誤時有點含蓄。另一個捕錯建議是命令該機器人向您展示其工作,以便您可以進行人類風格的驗證。
很明顯,GPt-4有潛力節省臨床中寶貴的時間和資源,允許臨床醫生更加專注於病人,「而不是他們的電腦屏幕,」作者寫道。但是,他們說,「我們必須迫使自己想像一個擁有更聰明機器的世界,最終或許在幾乎各個領域都超越人類智慧。然後非常認真地思考我們希望這個世界如何運作。」
免責聲明:社區由Moomoo Technologies Inc.提供,僅用於教育目的。 更多信息
原文
舉報
瀏覽 9709
評論
登錄發表評論
    121粉絲
    24關注
    236來訪
    關注