2022年11月に ChatGPT が登場すると、医療業界ではその医療応用の可能性が大きな話題となりました。同時に、医療関連プロセスや、意思決定に伴うリスクの高さから、生成 AI(AI)に対する懸念も取り沙汰されるようになりました。
その後、強力な新技術を活用する機会と、生成型 AI の応用が進む中で求められる慎重かつ倫理的なガバナンスとのバランスをとることが重視され、議論の焦点は生成型AIを責任ある形で導入することへと移っていきました。
ヘルスケア分野における生成 AI
EBSCO 社の Clinical Decisions 製品に搭載する最先端の意思決定支援ツール開発に携わる家庭医(family physician)兼インフォマティシストとして、私は、収集・選別・整理されたエビデンスに基づく臨床コンテンツを活用した“Dyna AI”において、生成 AI を責任ある形で応用する取り組みに深く関わってきました。
今回は、その過程で私が学んだことをご紹介したいと思います
1)生成 AI は、臨床判断に取って代わるものではない
最近、私が生成 AI の開発に取り組んでいることを同僚の医師に話したところ、彼の反応は「自分たちと(AI を)取り換えるために開発をしているのか?」というものでした。ですが、私はっきり「違う」と答えました。 どれだけ大量の情報統合や、タイムリーなデータを提示、また業務支援ツールを駆使したとしても、(臨床医が)長年の訓練を通じ培った臨床判断を再現することはできません。また、どんなに強力なテクノロジーが背景にあったとしても、その情報を取り出し、目の前の患者(オンラインであれ、対面であれ、非同期であれ)の状況に即して適用することは、代えがきく行為ではないのです。
生成 AI における私たちの第一原則は、患者安全を最優先に考えられれています 。
生成 AI における私たちの第一原則は、患者安全を最優先に考えられれています 。
2)医療現場においては、新しいテクノロジーよりも原則が優先される
私は幸運にも、編集の独立性を重んじる歴史と文化を持つ組織で働いています。私たち専門家で構成された編集チームは、コンテンツ制作における厳格なプロセスの一環として、徹底した研修を受けてきました。
生成 AI に関しても、当然ながら、まず原則の策定から初めています。そして私が属するチームが生成 AI に取り組む際には、日々その原則を参照し、また実践するよう努めています。この「原則第一」のアプローチは、私たちのチームが安心して生成 AI を用いたアプリケーションの可能性を探る上では唯一の方法であり、医療分野においては標準となるべきアプローチだと考えています。
3)テクノロジーは自分たちのために活用することができる
私は幸運にも、生成 AI に関する取り組みの初期段階から関わることができました。臨床、テクノロジー、そしてプロダクトの各部門が緊密に連携しながら生成 AI を製品に活用することで「臨床現場のために医療従事者自らが設計した」という、まったく新しい体験を創り出そうとしています。 これは、これまで臨床ワークフローに使われてきた多くの技術とは一線を画す、非常に新鮮な変化です。私はこの取り組みに関われていることに、心を弾ませずにはいられません。
4)AI を用いたツールの開発には、臨床医の積極的な関わりが不可欠である
生成 AI の応用に臨床医が深く関わることは、私たちのチームが目標を達成するにあたり、極めて重要な要素でした。臨床経験のある人々が技術者に対し現場の実際のニーズを積極的に提言することで、より良いツールが開発され、この技術が進化する中で、私たちが持ち併せている倫理観・価値観を最初から実践できるのですから。
5)AI は患者サービスの向上にも寄与するものである
臨床医がより良いケアを提供できるよう支援するテクノロジーは、最終的に患者の健康状態の改善にもつながります。それは、臨床意思決定支援の改善、臨床医の生活の質の向上、あるいは患者が生成 AI によってサポートされた情報に直接アクセスすることなど、多岐にわたります。
生成 AI に関する私たちの第一原則は、患者の安全を最優先することにあります。私はこの概念を、新しいテクノロジーを、責任と配慮をもって適用し、より良いケアを提供することで患者安全(医療安全)を向上させることと考えています。