醫療產業在2022年11月ChatGPT一推出時就開始討論各種潛在的醫療應用可能。同時因為與醫療流程和決策具有高度的利害關係在醫療照護領域上使用生成式AI人工智慧的風險也成為關注的議題。這項技術的相關對話也逐漸轉變成發展生成式AI人工智慧的負責任規劃並利用這項強大的全新技術所提供的機會與符合倫理的管理需求上達成平衡。

醫療保健中的生成式AI人工智慧

我身為一位家醫科醫師和資訊學家並為EBSCO臨床決策套裝資源來建置各種尖端決策支援工具且深入參與我們的實證臨床醫學內容(我們稱為Dyna AI人工智慧)開發工作而努力。下列是我在這段期間學到的心得分享。

1)生成式AI人工智慧無法取代臨床推理與判斷。

近期我跟一位醫師同事提到正在進行的生成式AI人工智慧時,他的反應是「哦,你在想辦法取代我們?」而我非常堅定的回答「不是」。姑且有多龐大的資訊彙整、適時呈現的資料還是工作流程排序工具都沒辦法複製我們經過多年臨床訓練所具備的決策跟判斷力且就算背後的技術多麼強大也沒有任何足以取代和在獲得那些資訊後直接應用在我們面前的病患身上 – 這些都無關於是採用虛擬、面對面或非同步的模式。

我們在生成式AI人工智慧方面的主要原則會以病患的安全為優先。

2)各項原則在醫療保健領域上要優先於最新的技術。

我很慶幸,能在具備完整的歷史文化組織內的獨立編輯位置上一起工作。我們的專家編輯團隊,接受大量的專業培訓,而此專業是我們在嚴謹的內容製作工作流程中的一部分。我們的組織在談到生成式AI人工智慧,很自然的會先從建立原則開始,當團隊在工作中用到生成式AI人工智慧,則必須每天實務上堅持和參考各項原則。首要遵循這些原則,能讓我們的團隊感到舒適,且能持續探究生成式AI人工智慧應用程式的唯一辦法,其同樣也是醫療照護領域中的標準原則模式。

3)我們可藉由科技來服務我們。

我很慶幸從一開始到現在都能參與並為生成式AI人工智慧發展工作來努力。我們的臨床技術和產品團隊共同合作將生成式AI人工智慧應用在旗下產品資源,能讓我們建置由臨床工作人員設計為臨床醫師提供全新的使用體驗。臨床工作流程牽涉到非常多的技術都是讓人眼睛為之一亮的改變,而我特別開心能參與並成為團隊的一份子。

4)臨床醫師參與AI人工智慧的工具發展非常重要。

臨床醫師的深度參與應用生成式AI人工智慧對於整體團隊取得成功非常重要。而具備臨床相關經驗的人能積極為技術人員提供各種臨床實務需求建議時,我們就能在一開始將道德和價值觀在這項技術發展的過程中逐一實現並在最後開發出更好的資源工具。

5)AI人工智慧能為我們的病患提供更好的服務。

最後在為臨床醫師支援提供較佳的醫療照護技術時,無論是改善臨床決策支援、提升臨床醫師的生活品質還是協助病患來取得生成式AI人工智慧的支援資訊都能增進病患的醫療福祉;而我們在生成式AI人工智慧方面的主要原則會以病患的安全為優先。我會將這樣的概念理解為以認真、負責細心的態度來應用全新技術並增加病患診療安全和提供更好的醫療照護服務。

只要註冊登入就能取得我們創新中心的最新更新資訊