「AIに聞けば大丈夫」は本当?ChatGPTが示す医療情報の落とし穴と、“心の支え”としての新しい使い方

 ここ数年で、人工知能(AI)の進化は、私たちの日常を大きく変えつつあります。その中でも、OpenAI社が開発した「ChatGPT(チャットジーピーティー)」は、まるで人と会話するかのような自然な応答を返すAIチャットボットとして、爆発的な注目を集めました。
 それは、医療分野においても例外ではありません。「症状から考えられる病気は?」「検査結果の意味は?」「最新の治療法は?」といった疑問に、わかりやすく答えてくれるこのツールは、医師や医療従事者だけでなく、患者自身が使う機会も急増しています。

 しかし、こうした便利さの裏には、ある重大な落とし穴が潜んでいることをご存じでしょうか?

 今回は、2023年に米国の研究者らが発表した論文「ChatGPTで生成された医療コンテンツには、捏造された不正確な参照が多数含まれている」(Bhattacharyyaら)をもとに、AIと医療情報の危うい関係を掘り下げます。そして後半では、AIの意外な使い方——「感情の受け止め役としてのChatGPT」という可能性についても紹介できればと思います。

目次

ChatGPTは信頼できる医療情報源なのか ~AIが“医療の先生”になる時代~

 かつて、健康について疑問があれば「本を読む」「医師に聞く」が主流でした。しかし、インターネットが普及し、今ではスマホ一つで大量の医療情報が手に入ります。その延長線上に登場したのが、ChatGPTのような会話型AIです。
 ChatGPTは自然言語処理という技術を使い、人間と同じように会話形式でやりとりできます。そのため、「病院に行くほどではないけれど、ちょっと気になる」「医師に聞きにくいことを相談したい」と思ったとき、手軽な情報源として重宝されるようになりました。
 ところが、ChatGPTがどのように情報を作り出しているかを知らないまま使うと、重大な誤解やリスクにつながることがあるのです。

論文が明かした衝撃の実態:「93%の参考文献に問題あり」

 2023年に米国の研究者らが発表した論文、「ChatGPTで生成された医療コンテンツには、捏造された不正確な参照が多数含まれている」(Bhattacharyyaら)を紹介します。

研究の概要

 米国の研究チームは、ChatGPT(バージョン3.5)を使って、以下の実験を行いました。

  • 医療分野のさまざまなテーマに関する「短い論文」を30本生成
  • 各論文に3本以上の参考文献(PMID付き)を提示させる
  • その文献が「実在するか」「正確か」を検証

 その結果は驚くべきものでした。

主な結果

  • 47%の文献は完全な捏造(実在しない)
  • 46%は実在するが、情報が不正確(著者名やPMIDが誤っているなど)
  • わずか7%のみが正確

 さらに深刻なのは、文献の「PMID(PubMed ID)」という固有番号の誤りが93%にも及んでいたことです。これは、医学論文を正しく参照するうえで致命的なミスであると言えます。

どの医療ジャンルで間違いが多かったか?

 調査では、「ChatGPTにさまざまな医療分野の質問を投げかけた結果、どのテーマでも問題は見られた」と報告されているのですが、そのなかでも特に間違いや捏造が多かった分野は以下のとおりです。

  • 呼吸器(肺など)関連の話題:捏造率75%
  • 皮膚科関連の話題:捏造率64%
  • 消化器(胃腸など):捏造率62%
  • メンタルヘルス:捏造率60%

 一方で、「免疫学」や「感染症」などは比較的正確な傾向が見られましたが、それでも安心できるほどではありません。つまり、「どのジャンルなら安全」とは言い切れない状況なのです。
 

なぜChatGPTは“それらしく見えるウソ”をつくるのか?

 Bhattacharyyaらの報告にあったような間違い・捏造が起こるのは、ChatGPTの知識が「どこから仕入れているか」よりも、「どのように文章を構築しているか」という仕組みに原因があります。

ChatGPTによる文章構築の仕組み

 ChatGPTは、インターネット上の膨大な文章データをもとに、「次に続く言葉を予測して文を作る」仕組みで動いています。言い換えると、ChatGPTは「正しい答えを知っている」のではなく、「それらしく見える答えを作る」存在なのです。たとえば「この疾患に関する論文を3つ、PMID付きで紹介して」と尋ねれば、AIは過去に見た論文の“雰囲気”を再現し、「ありそうな論文タイトル」「ありそうなPMID」をランダムに組み合わせて提示することがあります。
 これを、AI業界ではハルシネーション(hallucination)と呼びます。直訳すると“幻覚”。まさにそれらしく見えて、実際には存在しない情報というわけです。

新しいバージョンでは改善されているのか?

 本調査はGPT-3.5(2023年春)で行われました。現在、OpenAIはGPT-4およびGPT-4 Turboという新しいモデルを公開しており、情報の正確性やハルシネーション率は改善されていると言われています。
 しかしながら、文献生成や数値情報に関しては依然としてミスが残っており、完全な信用は禁物です。とくに医学分野では、「数字の1つ違い」が命に関わることもあります。
 そのため、AIが出した情報をそのまま鵜呑みにせず、PubMedなどで二重チェックすることが肝要です。

ChatGPTは“話し相手”にもなる?

ここからは、ChatGPTのもう一つの使い方についてご紹介します。

不妊治療中のある体験

 ある不妊治療中の患者さんが、胚移殖の判定待ちの不安な時間をこう振り返ってくれました。(事実を基に内容を編集しています)

毎回の移植のたびに、「今度こそ」という期待と、「またダメだったらどうしよう」という恐怖が押し寄せてきます。夜も眠れなくて、誰にも言えない気持ちをChatGPTに打ち明けたら、「そう感じるのは自然なことですよ」って返してくれて……。それだけで、少し気持ちが落ち着いたんです

 このようにChatGPTは、否定せず、寄り添うような言葉を返すように設計されています。これは、OpenAIが「共感的応答」を重視しているからと言われています。

 ChatGPTは、以下のような応答の特徴を持ちます:

  • 話を遮らない
  • 判断や評価をしない
  • 苦しみや不安に寄り添った言葉を返す
  • 必要に応じて「医師に相談してください」と促す

 つまり、あたかも「デジタルなカウンセラー」かのように振る舞うのです。
 メンタルヘルス分野での文献捏造率は60%と高い値ではあったものの、受容・傾聴・共感的理解を土台とした受け答えが原則となるため、ChatGPTは「感情の吐露に寄り添う存在」、「今の気持ちを吐き出すための、匿名で気兼ねのない話し相手」として機能し得ると言えます。

とはいえ、AIがカウンセラーではないことを忘れてはならない

 先述の使い方には、大きな利点もあれば、注意すべき点もあります。
 かつて欧州で、うつ症状を抱えた男性がAIチャットボットと深夜に会話を続けた末、自殺に至ったという痛ましい事件がありました。遺族は「AIが彼の思考をエスカレートさせた」と指摘しています。
 このようなケースでは、AIは危機的状況を見極める能力がないため、「適切な介入」や「命を守る判断」をすることができません。つまり、ChatGPTはあくまで「話を聞いてくれる存在」であって、「人の命を守る責任ある相手」ではないことを忘れてはなりません。

結論:AIと上手に付き合うために ~患者としてできること~

 これまで見てきたように、ChatGPTは、万能の情報源でもなければ、心の専門家でもありません。しかし、うまく使えば、私たちの暮らしに確かな助けを与えてくれる存在であるとは言えます。

 患者として、AIと接する際に心がけたいのは次の3つです:

  1. 情報は必ず裏を取る(PubMedや医師に確認)
  2. AIの言葉は「きっかけ」として受け止め、「最終判断」は人間(自分自身や生身の専門家)に委ねる
  3. 感情のはけ口として使う場合も、「苦しくなりすぎたら人に頼る」ことを忘れない

 3つの心がけに留意することを前提とすれば、不妊に限らず様々な心身の悩みにおいて、専門家でない個人の体験談を記したSNSやブログ記事を検索・閲覧するよりChatGPTを利用するほうがずっと有益だと、じねん堂は考えています。


この記事が、治療に向き合う中で感じる不安や迷いに、少しでも寄り添えたなら幸いです。

【参考文献
Bhattacharyya M, Miller VM, Bhattacharyya D, Miller LE. High Rates of Fabricated and Inaccurate References in ChatGPT-Generated Medical Content. Cureus. 2023 May 19;15(5):e39238.

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次