制服丝袜成人电影|欧洲美女激情AV|久久天堂无码AV|日本一及黄色电影一及黄色|天摸天操天啪欧美|AA级黄色一级特黄成人大片|日韩特级AAA毛片|特级黄色成人录像|激情啪啪综合亚洲A黄|特黄一级AAA日本在线观看

歡迎訪問智慧醫(yī)療網(wǎng) | 網(wǎng)站首頁
 
當(dāng)前位置:首頁 > 數(shù)字療法與健康管理

來感受一下“人工智能+”,三甲醫(yī)院是這樣用大模型的

發(fā)布時間:2024-04-20 來源: 量子位 瀏覽量: 字號:【加大】【減小】 手機(jī)上觀看

打開手機(jī)掃描二維碼
即可在手機(jī)端查看

當(dāng)去年GPT4公布的時候,我們大吃一驚,哪有這樣的事;過若干時間后淡忘了,因為你也沒有用過。


今年突然出現(xiàn)Sora,驚呆了,文字就能出來一幕劇;難道僅僅是如此嗎?不是,都說明我們沒有用上。

我的意思是,需要讓一部分人先用起來。


今年,圍繞AI的最前沿科技依舊是大熱門的話題,而上述這段話正是來自全國政協(xié)委員周漢民。此建議一出,可謂是立即在網(wǎng)上掀起了不小的熱潮。

而之所以會有如此建議,是因為在周漢民看來,對于這些最前沿的技術(shù)是要盡快體驗和使用的:

如果你不夠了解,就會處于劣勢。

因為它所帶來的是以點帶面、連線成片的巨大影響效應(yīng)。

不難看出,其核心觀點,就是技術(shù)需要被用起來,要盡快地做到落地

而這也應(yīng)了自ChatGPT引爆AIGC大熱潮以來的一個大趨勢,即從大模型的訓(xùn)練逐漸向推理過渡,從底層的模型層逐漸向頂層的應(yīng)用,甚至是更進(jìn)一步的行業(yè)或消費者應(yīng)用發(fā)展。

但畢竟像Sora這樣的技術(shù)也是剛問世不久,諸多技術(shù)和體驗方式還并沒有對外開放;而大語言模型(LLM),則是已然火了整整一年有余。

由此能聯(lián)想到的一個問題便是——LLM,現(xiàn)在用得怎么樣了?

讓我們先拿醫(yī)療行業(yè)的實踐舉個例子圖片

無論是以往傳統(tǒng)AI,還是當(dāng)下頂流大模型,醫(yī)療領(lǐng)域一直都是一個非常典型且亟需AI支持的大行業(yè)場景,AI的融入,能肉眼可見地提高醫(yī)療服務(wù)的效率和質(zhì)量、應(yīng)對醫(yī)療資源短缺的挑戰(zhàn)、以及推動個性化醫(yī)療的發(fā)展等。

讓我們從電子病歷上來個“以小見大”。

一方面,與之相關(guān)的工作可以說是非常的繁雜,大量的文本信息需要人為手動地去輸入,在有些醫(yī)生詳細(xì)追蹤患者的情況下,病歷甚至可長達(dá)萬字之多,極容易出現(xiàn)錯誤錄入的情況。

另一方面,電子病歷又會影響到醫(yī)生和醫(yī)療工作者的判斷,因為他們需要對電子病歷有著深入的洞察,以便發(fā)現(xiàn)潛在的健康風(fēng)險和疾病模式。

其在醫(yī)療工作環(huán)節(jié)中的重要性可見一斑。而諸如LLM這樣的AI技術(shù),恰巧能夠很好地滿足對大量文本內(nèi)容的信息化、數(shù)字化以及深入理解,正好可以用來做病歷的歸納、糾錯和重要信息的提煉,而且這類活兒恰好苦到,或者累到……所有“正常人類”都不太愿意干。

微信圖片_20240420161448.jpg

那么這些工作讓AI來代勞,又能帶來什么樣的效果呢?我們不妨以深耕醫(yī)療行業(yè)多年,并且已經(jīng)幫助眾多頭部三甲醫(yī)院完成信息化和數(shù)字化的衛(wèi)寧健康為標(biāo)桿來一探究竟。

衛(wèi)寧給出的一套解決方案叫做WiNEX Copilot,如其名,它在醫(yī)療領(lǐng)域所發(fā)揮的作用,正是充當(dāng)醫(yī)生和相關(guān)工作者的AI助手。

在WiNEX Copilot病歷文書助手的加持之下,醫(yī)生們可以一鍵生成符合醫(yī)療規(guī)范和匹配患者個人病情的病歷文書段落,大幅減少病歷記錄書寫工作量,可以讓他們更專注于診斷和治療。

從披露的數(shù)據(jù)來看,只需要給它8個小時(例如在醫(yī)生下班后的時間),病歷文書助手就可以處理近6000份病歷,相當(dāng)于三甲醫(yī)院12名醫(yī)生一天工作量的總和!

微信圖片_20240420161453.jpg

而這也還僅是LLM上崗醫(yī)療的一隅,WiNEX Copilot還具備怎樣的實力,我們繼續(xù)往下看。

AI醫(yī)生助手為什么值得擁有

實際上,WiNEX Copilot已深度集成到衛(wèi)寧新一代產(chǎn)品WiNEX中,除了前面提到的病歷文書助手,我們還可以舉幾個有代表性的場景來進(jìn)一步展示它的實力。

在放射科,WiNEX Copilot影像報告助手就能幫助醫(yī)生提升診斷質(zhì)量,降低誤診率。

根據(jù)影像醫(yī)生寫下的影像檢查所見情況文字描述,這個小助手就可以自動生成影像診斷結(jié)論,包括具體的病變名稱或診斷、隨訪建議等。

醫(yī)生可基于對自動生成內(nèi)容準(zhǔn)確度的判斷,靈活選擇一鍵引用或重新生成。

微信圖片_20240420161457.png

對于影像報告的完整書寫工作來說,這就相當(dāng)于人類醫(yī)生和AI合作完成了一輪交叉核對,減輕影像科醫(yī)生的工作負(fù)擔(dān),降低誤診漏診風(fēng)險,提高影像報告質(zhì)量。

特別是遇到有多次檢查記錄的隨訪患者,系統(tǒng)可自動調(diào)出相關(guān)的報告輔助對比分析,讓診斷結(jié)論更嚴(yán)謹(jǐn)、完整、準(zhǔn)確。

微信圖片_20240420161500.png

再如WiNEX Copilot藥品知識助手,不僅能從海量的醫(yī)藥文獻(xiàn)和數(shù)據(jù)庫中快速檢索出與用戶查詢相關(guān)的精確知識,還能基于這些信息生成通俗易懂、內(nèi)容準(zhǔn)確的回答。

這樣一來,就相當(dāng)于給醫(yī)護(hù)人員提供了一個外掛的藥品知識庫,面對不斷更新的藥品信息,也能跟得上變化。

微信圖片_20240420161503.png

就像這樣,WiNEX Copilot對接上具體細(xì)分的醫(yī)療業(yè)務(wù)場景,就會立即搖身變成醫(yī)護(hù)人員的全方位、多維度智能助手。

目前WiNEX Copilot已經(jīng)集成在衛(wèi)寧健康WiNEX全系列產(chǎn)品中,覆蓋醫(yī)院管理、醫(yī)生增效和患者服務(wù)等100多個臨床應(yīng)用場景。

微信圖片_20240420161506.jpg

所有這一切,看著炫目又實用,一定需要氪不少金才能擁有吧?

劃重點了,它的硬件成本非常合理,性價比也許出乎你的預(yù)料。而且更重要的是其實際部署和應(yīng)用也非常高效,能在任何一家已經(jīng)使用WiNEX系統(tǒng)的醫(yī)院迅速“上崗”。

這,又是怎么做到的?

用CPU加速AI落地

可以把AI產(chǎn)品做到既貼近用戶需求,又能把它落地和部署的效率拉滿,這對于衛(wèi)寧健康來說其實是相輔相成的。

作為國內(nèi)醫(yī)療信息化領(lǐng)域龍頭企業(yè),衛(wèi)寧健康服務(wù)的各類醫(yī)療衛(wèi)生機(jī)構(gòu)用戶達(dá) 6,000 余家,其中包括 400 余家三級醫(yī)院,覆蓋智慧醫(yī)院、區(qū)域衛(wèi)生、基層衛(wèi)生、公共衛(wèi)生、醫(yī)療保險、健康服務(wù)等多個領(lǐng)域。

在技術(shù)方面,衛(wèi)寧健康還擁有成體系的系統(tǒng)研發(fā)、AI和大數(shù)據(jù)技術(shù)轉(zhuǎn)化能力。

到了大模型時代,衛(wèi)寧健康多年積累的醫(yī)療行業(yè)經(jīng)驗、高質(zhì)量訓(xùn)練數(shù)據(jù)和研發(fā)能力就起到了關(guān)鍵作用——

在三項優(yōu)勢的綜合下,推出面向醫(yī)療垂直領(lǐng)域的大模型WiNGPT。

微信圖片_20240420161510.png

WiNGPT正是WiNEX Copilot的底層AI引擎,它一個突出特點就是結(jié)合高質(zhì)量醫(yī)療數(shù)據(jù),可針對醫(yī)療場景優(yōu)化和定制。

從2023年初開始研發(fā),到10月正式發(fā)布時預(yù)訓(xùn)練數(shù)據(jù)20G,微調(diào)數(shù)據(jù)更是達(dá)到50萬條。

WiNGPT另一個突出特點就是能高效交付、部署和應(yīng)用了。

衛(wèi)寧健康為此選擇與英特爾合作,通過軟硬適配、優(yōu)化模型算法等手段,把在CPU上部署的生成效率搞到接近GPU的水平。

為什么要選擇這一條技術(shù)路線,與CPU本身的能力和醫(yī)療行業(yè)的特點都脫不開關(guān)系。

首先,高端CPU近年來瞄準(zhǔn)AI市場持續(xù)發(fā)力,內(nèi)置的AI加速技術(shù)的性能已經(jīng)能夠滿足需求。

這一步在應(yīng)用部署方面更看重的推理算力方面表現(xiàn)得更為突出。

例如衛(wèi)寧選用的第五代英特爾至強(qiáng)可擴(kuò)展處理器,內(nèi)置了AMX(高級矩陣擴(kuò)展)加速技術(shù)。相比同樣內(nèi)置AMX的第四代至強(qiáng)可擴(kuò)展處理器,得益于自身在微架構(gòu)和整體性能上的提升,第五代的推理性能提升高達(dá)42%;而與內(nèi)置了矢量加速指令集,即深度學(xué)習(xí)加速(DL Boost)技術(shù)的第三代至強(qiáng)可擴(kuò)展處理器相比,其AI訓(xùn)練和推理性能提升更是高達(dá)14倍。

微信圖片_20240420161512.png

其次,在醫(yī)療行業(yè)數(shù)字化過程中,CPU已有非常廣泛的使用基礎(chǔ)。

這一點行內(nèi)人都知道,廣泛應(yīng)用的電子病歷系統(tǒng)、醫(yī)院資源規(guī)劃系統(tǒng)以及患者管理系統(tǒng)等等,都需要處理大量的數(shù)據(jù),并且要求高可靠性和實時性。

因此CPU早就已經(jīng)是醫(yī)療行業(yè)經(jīng)常采購的設(shè)備,不像專用AI加速器或者GPU還需要特批采購流程,選擇在CPU上落地AI應(yīng)用自然更平滑順暢。

再進(jìn)一步來說,CPU得益于這種基礎(chǔ),積累了充足的技術(shù)人才儲備,更易于優(yōu)化和使用。

CPU群眾基礎(chǔ)廣泛,易于使用、有較出色的可靠性,在醫(yī)療行業(yè)歷經(jīng)考驗的同時,也積攢了大批相關(guān)專業(yè)人才。

這些人才,和衛(wèi)寧健康自己的專業(yè)人才,再加上合作伙伴英特爾方面的工程師協(xié)作,推進(jìn)AI應(yīng)用落地時,無論業(yè)務(wù)方案還是硬件優(yōu)化方面都能做到就緒程度更高,上手更快。

綜合來看,如果這樣一個AI 應(yīng)用能在擁有廣泛部署、易于獲取,便于應(yīng)用和優(yōu)化,能兼顧通用計算又能做推理加速的平臺上落地,且不用為此導(dǎo)入異構(gòu)帶來的各種復(fù)雜性,自然就會收獲高效的應(yīng)用表現(xiàn)、落地速度和更會有的成本競爭力。

具體到實際表現(xiàn)上——在衛(wèi)寧健康和英特爾共同對WiNGPT的推理進(jìn)行優(yōu)化后,提升了內(nèi)存使用效率,并通過對 PyTorch在CPU平臺上主要算子的算法進(jìn)行改良,進(jìn)一步加快了深度學(xué)習(xí)框架的推理速度。

而在測試中,將基于第五代英特爾至強(qiáng)可擴(kuò)展處理器的方案與基于第三代英特爾至強(qiáng)可擴(kuò)展處理器的方案進(jìn)行了對比,結(jié)果顯示,新一代處理器可將性能提升多達(dá) 3 倍。

同時,CPU方案還具有可以更輕松擴(kuò)展推理實例數(shù)量的優(yōu)勢,并且可以在各種平臺上適配進(jìn)行推理。

微信圖片_20240420161516.jpg

所有這些優(yōu)勢疊加的結(jié)果,就是能讓每家已經(jīng)用上衛(wèi)寧新一代產(chǎn)品WiNEX系統(tǒng)的醫(yī)院,都有機(jī)會擁有WiNGPT支持的全套WiNEX Copilot醫(yī)護(hù)智能助手。

CPU成了大模型時代下的另一種解法

那么我們現(xiàn)在再來回答最初的那個問題:如何把LLM用好?

首先非常確定的是,目前的大模型已然是步入到了拼誰可以“快好省”地用起來的階段。

這種趨勢從去年便已開始嶄露頭角,例如從ChatGPT問世之后,國內(nèi)外先是呈現(xiàn)出了百模大戰(zhàn)這種以訓(xùn)練為基礎(chǔ)的態(tài)勢。

而后從下半年至今,則是在訓(xùn)練完大模型的基礎(chǔ)之上,更多企業(yè)都在思考的則是如何將LLM真正地扎根到行業(yè)里。

衛(wèi)寧這個例子,可以說是較為成功的范例,這不僅是得益于它長期在以大模型為代表的前沿技術(shù)上的跟進(jìn)與創(chuàng)新,更是基于它對于醫(yī)療行業(yè)的深耕;因此才可以抓住醫(yī)療領(lǐng)域的痛點,并讓LLM在其中發(fā)揮更大的價值。

由此來看,如何能把LLM用好,需得先有深厚的行業(yè)積累、有洞悉,方可精準(zhǔn)切入。

誠然,全球步入大模型時代之后,GPU或?qū)S玫募铀倨鳠o疑成為了香餑餑,并且越發(fā)呈現(xiàn)出千金難求的局面。

然而這就是所有場景中的最優(yōu)解嗎?不見得。

正如我們剛才所言,不論是傳統(tǒng)的AI技術(shù)亦或是LLM,要想很好的落地需得是做到“快好省”。

若是在部署時盲目堆GPU,一是可能會出現(xiàn)算力上的過剩甚至浪費,二是在落地效率上可能達(dá)不到那么高,同時成本也可能會水漲船高。

因此衛(wèi)寧pick老牌芯片巨頭英特爾的最新一代至強(qiáng),也是從性能、行業(yè)、人才、到成本等一系列因素深入考量之后所做出的較優(yōu)解;而從結(jié)果上來看,CPU也正在實實在在地助力著LLM在醫(yī)療領(lǐng)域大展拳腳。

所以,到了今天,我們會突然發(fā)現(xiàn),一個有意思的新趨勢是:CPU成了大模型落地的另一種解法。

更多CPU支持的AI驅(qū)動醫(yī)療信息整合解決方案內(nèi)容,請點擊https://www.intel.cn/content/www/cn/zh/artificial-intelligence/winning-health-nlp-post-structured-platform.html?cid=soc&source=Wechat&article_id=5328獲取。


Copyright ? 2022 上海科雷會展服務(wù)有限公司 旗下「智慧醫(yī)療網(wǎng)」版權(quán)所有    ICP備案號:滬ICP備17004559號-5