既報で「生成AIの進展と保健医療における活用可能性」を紹介したが、去る1月18日には世界保健機関(WHO)が「保健医療分野にAIを利活用する際の倫理とガバナンスー大規模マルチモーダルモデル(LMM)に関するガイダンス」を発表した。対話型生成AIの基盤技術とされてきたのはLLM(large language model、大規模言語モデル)であるが、LMM(large multi-modal model)は多様な形式のインプットが可能なものを指すので少々ややこしい。


 想定される応用領域や考慮すべきリスクにも触れているガイダンスの概要を確認した上で、生成AI“自身”にも関連の質問を投げかけてみた。具体的には「WHOのガイダンスに対する“見解”」「対話型AIとマルチモーダル型AIを医療に使うリスクの違い」「マルチモーダル型AIで医薬品開発を行うメリットとデメリット」「生成AI依存と医療従事者の質」である。参考までにその回答を紹介したい。

※なお、既報【知らずに済まない生成AI】の図中、生成AIの一つであるBardをMetaの欄に記入していましたが、Googleの誤りでした。ここにお詫びして訂正させていただきます。


■リスクの特定と倫理的な使用が鍵

 WHOのガイダンスは100頁を超える大作だ。この資料によれば、LMMは急速に成長している生成AI技術の一種で「テキスト、ビデオ、画像などのうち1種または複数のデータ入力に基づき、入力データの種類に限定されない多様な出力を作成する」「人間のコミュニケーションを模倣し、明示的にプログラムされていないタスクを実行できるという点でユニークだ」として、ChatGPT、Bard、Bertなどの実例を挙げている。WHOの専門家は、「AI 技術はヘルスケアを改善する可能性があるが、それはこれらの技術を開発・規制・使用する人々が関連リスクを特定し、完全に考慮する場合に限られる」と語っている。


 想定している主な応用領域は、❶診断と臨床ケア、❷患者主体の利用、❸事務・管理業務、❹医学・看護教育、❺科学研究と医薬品開発の5つ。筆者は、❷で患者が自分の治療やケアに関する意思決定や行動を主導するアプローチ(patient-guided medicine)への利用が想定されている点、❹では個々の学生(学習者)のニーズに合わせて内容や難度が変化するdynamic text が例示されている点が興味深かった。LMMの利活用には当然リスクを伴うが、ガイダンスでは有用で安全なものにするための基盤を倫理原則に求めている。考えてみればこれは科学の諸分野に当てはまることなのかもしれない。



■WHOのガイダンスに対する“見解”

 ここからは、Googleの生成AI「Bard」との一問一答を紹介する。Bardを使ったのは、無料で、筆者が既に持っているGoogleのアカウントを使えるからだ。ただし、あくまで試験運用中なので「機密情報や、Google のプロダクト、サービス、機械学習技術の向上に使用されたくないデータを入力しない」「医学上、法律上、金融上、またはその他の専門的な助言として、Bard の回答に依拠しない」などの注意が必要だ。以下の回答は、読みやすさのために一部太字にしてあるが、生成されたままの内容である。皆さんはどう受け止めるだろうか。


A(筆者、以下同):世界保健機関が生成AIを医療に使うリスクを次のように指摘した。あなたはどう思う?

Overestimation of the benefits of LMMs/ Accessibility and affordability/ System-wide biases/ Impacts on labour dependence of health systems on ill-suited LMMs/ Cybersecurity risks

B(Bard、以下同):世界保健機関が指摘した生成AIを医療に使うリスクは、いずれも重要な問題であり、慎重に検討する必要があります。

Overestimation of the benefits of LMMs

生成AIは、医療画像診断、創薬、治療計画など、さまざまな分野で大きな可能性を秘めているとされています。しかし、その効果を過大評価する危険性もあります。生成AIは、あくまでもツールであり、人間の経験や判断力を補うものであることを忘れてはなりません。

Accessibility and affordability

生成AIの導入には、高価なハードウェアやソフトウェア、大量のデータが必要になる場合もあります。そのため、低所得国や地域では、生成AIの恩恵を受けることが難しい可能性があります。

System-wide biases

生成AIは、その訓練データに含まれるバイアスを反映する可能性があります。そのため、生成AIの使用によって、既存の差別や偏見を拡大してしまうリスクがあります。

Impacts on labour

生成AIは、医療従事者の仕事を奪うのではないかという懸念もあります。しかし、生成AIは医療従事者の負担を軽減し、より質の高い医療を提供するためのツールとして活用することもできます。

Dependence of health systems on ill-suited LMMs

生成AIは、まだ十分に実用化されていない技術です。そのため、不適切なLMMを導入してしまうと、医療システムに大きな損害を与える可能性があります。

Cybersecurity risks

生成AIは、サイバー攻撃の標的となる可能性があります。そのため、生成AIのセキュリティ対策を十分に講じることが重要です。


これらのリスクを軽減するためには、以下の対策が考えられます。

●生成AIの開発や導入において、倫理や公正性を重視する

●低所得国や地域への支援を強化する

●生成AIのバイアスを検知・排除するための対策を講じる

●生成AIと医療従事者の役割分担を明確にする

●生成AIのセキュリティ対策を強化する

生成AIは、医療の質を向上させる可能性を秘めた技術です。しかし、そのリスクを十分に認識した上で、慎重に導入を進めていくことが重要です。

【筆者コメント】Bardに対してはリスクのキーワードを挙げただけだが、各項目に関する説明はWHOガイダンスの趣旨と合致し、かつ、分かりやすい。


■AIの型によるリスクの違い

A対話型AIとマルチモーダル型AIを医療に使うリスクに違いはあるか?

B

対話型AI

対話型AIは、患者との会話を通じて、症状や病歴、生活習慣などを把握し、診断や治療のアドバイスを行うAIです。このタイプのAIのリスクとしては、以下のようなものが挙げられます。

●誤った診断や治療のアドバイス

対話型AIは、まだ十分に実用化されておらず、誤った診断や治療のアドバイスをするリスクがあります。そのため、対話型AIの診断や治療のアドバイスは、必ず人間の医療従事者による確認が必要です。

●個人情報の漏洩

対話型AIは、患者の個人情報を取得して分析する必要があるため、個人情報の漏洩のリスクがあります。そのため、対話型AIのセキュリティ対策を十分に講じることが重要です。

●偏見や差別の拡大

対話型AIは、その訓練データに含まれる偏見を反映する可能性があります。そのため、対話型AIの使用によって、偏見や差別の拡大につながるリスクがあります。


マルチモーダル型AI

マルチモーダル型AIは、画像や音声、テキストなどの複数のデータを組み合わせて分析するAIです。このタイプのAIは、医療画像診断や創薬、治療計画など、さまざまな分野で活用されています。

マルチモーダル型AIのリスクとしては、以下のようなものが挙げられます。

●データの偏り

マルチモーダル型AIは、その訓練データに含まれる偏りを反映する可能性があります。そのため、マルチモーダル型AIの使用によって、既存の差別や偏見を拡大してしまうリスクがあります。

●セキュリティリスク

マルチモーダル型AIは、画像や音声、テキストなどの機密性の高いデータを扱う可能性があるため、セキュリティリスクがあります。そのため、マルチモーダル型AIのセキュリティ対策を十分に講じることが重要です。


これらのリスクを軽減するためには、以下の対策が考えられます。

●対話型AIの精度や安全性を高める

対話型AIの精度や安全性を高めるためには、十分なデータ量と高品質なデータを用いて訓練を行う必要があります。また、誤った診断や治療のアドバイスを防止するための対策を講じる必要があります。

●個人情報の保護を徹底する

対話型AIの個人情報の保護を徹底するためには、データの暗号化やアクセス制限などの対策を講じる必要があります。また、患者の同意を得た上で、個人情報を取得・利用する必要があることを明確にする必要があります。

●偏見や差別の排除に努める

対話型AIの偏見や差別の排除に努めるためには、訓練データの偏りを検知・排除するための対策を講じる必要があります。また、対話型AIの使用によって、偏見や差別が拡大するリスクを認識し、その防止に努める必要があります。

●データの安全性を高める

マルチモーダル型AIのセキュリティリスクを低減するためには、データの暗号化やアクセス制限などの対策を講じる必要があります。また、マルチモーダル型AIの使用によって、機密性の高いデータが漏洩するリスクを認識し、その防止に努める必要があります。

対話型AIとマルチモーダル型AIは、それぞれに異なるリスクを有しています。これらのリスクを十分に認識した上で、適切に導入・活用することが重要です。

【筆者コメント】この回答から「医療に使う場合、対話型AIは主に患者向け、マルチモーダル型AIは主に医療従事者向けと考えられているのか?」を追加質問したところ、一般的にはそう考えられているとの回答だった。


LMMによる医薬品開発

A:マルチモーダル型AIで医薬品開発を行うメリットとデメリットを教えて。

B

マルチモーダル型AIで医薬品開発を行うメリットは、以下のようなものが挙げられます。

●開発の効率化・迅速化

マルチモーダル型AIは、画像や音声、テキストなどの複数のデータを組み合わせて分析することができます。そのため、従来は個別に行われていたデータ解析を、同時に行うことができるため、開発の効率化・迅速化が期待できます。

●新薬候補の探索の精度向上

マルチモーダル型AIは、大量のデータを高速に処理することができます。そのため、従来は膨大な時間と労力を要していた新薬候補の探索を、効率的に行うことができるため、精度向上が期待できます。

●安全性評価の精度向上

マルチモーダル型AIは、画像や音声、テキストなどのデータを組み合わせて、薬物動態や副作用などの安全性を評価することができます。そのため、従来は困難だった複雑な安全性評価を、より精度高く行うことができるようになります。


一方、デメリットとしては、以下のようなものが挙げられます。

●データの偏り

マルチモーダル型AIは、その訓練データに含まれる偏りを反映する可能性があります。そのため、マルチモーダル型AIの使用によって、既存の差別や偏見を拡大してしまうリスクがあります。

●セキュリティリスク

マルチモーダル型AIは、画像や音声、テキストなどの機密性の高いデータを扱う可能性があるため、セキュリティリスクがあります。そのため、マルチモーダル型AIのセキュリティ対策を十分に講じることが重要です。

●倫理的な課題

マルチモーダル型AIの使用には、倫理的な課題もあります。例えば、マルチモーダル型AIが、患者のプライバシーを侵害したり、差別や偏見を助長したりする可能性があるからです。

これらのメリットとデメリットを踏まえて、マルチモーダル型AIを医薬品開発に活用していく必要があります。

【筆者コメント】「マルチモーダル型AIを医薬品開発に使うと、既存の差別や偏見を助長するリスクがあるとはどういう意味か?」追加質問したところ、「例えば、臨床試験のデータに、特定の民族や性別、年齢層の患者が偏って含まれている場合、マルチモーダル型AIは、その偏りを反映した結果を出力してしまう可能性がある」、その結果「既存の差別や偏見が助長されるリスクがある」「例えば、ある特定の民族や性別、年齢層の患者に対する効果が低い薬が開発されたり、特定の民族や性別、年齢層の患者への臨床試験が実施されにくくなったりする可能性がある」と、一般的な差別や偏見とは異なる趣旨だった。


■AI依存と医療従事者の質

A生成AIに依存し過ぎると医療従事者の質が下がるという指摘があるが、あなたはどう思う?

B

生成AIに依存し過ぎると医療従事者の質が下がる可能性があるという指摘は、一理あると思います。

生成AIは、膨大なデータからパターンを見つけ出すことができます。そのため、医療従事者よりも高い精度で診断や治療のアドバイスを行うことができます。しかし、生成AIはあくまでもツールであり、人間の経験や判断力を補うものであることを忘れてはなりません。

生成AIに依存し過ぎると、医療従事者が自分の判断力を磨く機会が減ってしまい、結果的に質が下がってしまう可能性があります。また、生成AIの誤った結果を鵜呑みにしてしまう可能性もあります。

そのため、生成AIを活用する際には、医療従事者が自分の判断力を磨き、生成AIの誤った結果を判断できるようにすることが重要です。また、生成AIの使用状況を定期的に監視し、問題があれば適切に対応することも重要です。


具体的には、以下の対策が考えられます。

●医療従事者への教育・研修の充実

生成AIの活用方法や、生成AIの誤った結果を判断する方法などを、医療従事者に教育・研修を行う必要があります。

●生成AIの使用状況の監視

生成AIの使用状況を定期的に監視し、問題があれば適切に対応する必要があります。

●生成AIの使用ガイドラインの策定

生成AIの使用に、倫理や公正性のガイドラインを策定する必要があります。

これらの対策を講じることで、生成AIに依存し過ぎることによる医療従事者の質の低下を防止することができます。

【筆者コメント】「一理あると思います」という表現がなかなか巧妙で、まるで人相手のような感覚もある。広く日常的に使われるようになることで、無意識に依存し判断力が鈍る可能性も確かにある。


 今回紹介した質問は生成AIに関する内容で、Bardにも十分な事前学習データがあり、門外漢からすると大きな破綻のない回答のように思われた。こちらの質問(プロンプト)次第で異なる答えを引き出すことができ、追加質問で不明点も深掘りも可能なので、現状でもブレインストーミング的に使った上で、さらに自分で調べたり考えを整理したりするツールにはなりそうだ。「リスク軽減策」「対策」の内容は総論なので、具体的にどう現場に当てはめていくかは、自分たちで考える必要がある。


2024年1月26日時点の情報に基づき作成

・・・・・・・・・・・・・・・・・・・・・・・・・・・・

本島玲子(もとじまれいこ)

「自分の常識は他人の非常識(かもしれない)」を肝に銘じ、ムズカシイ専門分野の内容を整理して伝えることを旨とする。

医学・医療ライター、編集者。薬剤師、管理栄養士、臨床検査技師。