オンライン健康セキュリティへの圧力が高まる中、GoogleはAIを活用した健康サマリーの提供速度を低下させている


サイバーセキュリティ
2026-01-12T13:00:15+01:00

最終更新日: 2026年01月12日
  • Google は、潜在的に危険なエラーを検出した後、AI が生成した健康概要を医療検索から削除しました。
  • 自動応答には、臨床的な背景を考慮せずに肝臓検査の範囲とがんに関するアドバイスが表示され、欧州の専門家はこれを懸念している。
  • 保健機関はGoogleに対し、公式ソースを優先し、医療に適用されるAIの品質管理を強化するよう求めている。
  • AIベースの健康アシスタントの台頭により、欧州ではオンライン医療情報の信頼性、規制、責任に関する議論が再燃している。

検索方法 インターネット上の健康情報は 繊細な段階大規模な人工知能モデルは、電子メールの作成やニュースの要約から、検索エンジンの最も目立つ部分で直接的な医学的回答を提供するまで飛躍し、患者の日常生活への影響を増大させています。

この文脈では、 Googleは撤退を余儀なくされた 彼らの戦略の重要な部分である、デリケートな健康関連の検索に対する検索結果の上位に表示されるAI生成の要約。数回の 専門家によって重大な欠陥が発見されたため、同社はこれらの自動応答の撤回を開始しました。 医療検査や病気に関連する特定の検索において。

Google、重大なエラー発生後、AI生成の健康サマリーを削除

マドリードやヨーロッパの他の地域では、多くのユーザーがいわゆる AIの概要Googleが生成AIで生成し、従来のリンクの上に表示する自動要約。明確で迅速な回答を提供することが目的ですが、医療に関する質問となると、 誤差の範囲は最小限である.

調査によると ガーディアン まさにその健康に関する概要に焦点を当てた調査が行われた。英国の新聞は、 肝機能検査, システムは、年齢、性別、民族、患者の臨床状況などの基本的な側面を明確にせずに、いわゆる「正常」な数値と範囲のリストを返しました。血液検査結果を解釈するための必須要素。

肝臓病専門医は、このデータの発表は これにより、重度の肝疾患を患っている人が、自分の検査結果が正しいと信じてしまう可能性があります。 その結果、健康診断に行かなくなったり、心配な症状を無視したりするようになります。 それは単なる不正確さではありませんでした。直接的な健康リスク.

これらの事例の公表を受けて、Googleは AI概要を削除 「肝臓の血液検査の正常範囲は?」や「肝機能検査の正常範囲は?」といった具体的な検索では、この数値は「正常範囲」と「正常範囲」のどちらにも当てはまる。しかし、新聞社自身も、 相談における最小限の変化たとえば、質問の言い回しを変えても、コンテキストが不十分という同じ問題を抱えた自動要約が生成されます。

同社はコミュニケーション方針に従い、個々の削除について詳細を明らかにすることを控えている。広報担当者は「コメントは差し控える」とだけ述べた。 「検索における個々の排除」 また、AI による要約で必要なコンテキストの一部が省略されている場合、全般的な改善に取り組み、適切だと判断した場合は社内ポリシーに従って行動します。

保健機関は医療AIに対するさらなる注意を呼びかけている

批判はテクノロジー分野に限ったことではない。ヘルスケア分野の専門家はGoogleに対し、…を求めている。 より高いレベルの注意 健康問題に関しては、ヴァネッサ・ヘブディッチ氏は、 英国肝臓トラスト彼はいくつかの要約が削除されたことを歓迎したが、AIが検索をわずかに変更するだけで誤解を招くような回答を生成できる限り、問題は残ると警告した。

ヘブディッチ氏は、肝機能検査には さまざまな種類の分析 そして、それらを正しく解釈することは、専門家にとっても複雑な場合があります。どの検査なのか、またそれが個人の特定のケースに当てはまるのかを明確にせずに、自動化された数値リストを作成することは、彼らの言葉を借りれば、 潜在的な混乱の原因 深刻な病状を隠す可能性があります。

他の組織、例えば 患者情報フォーラム彼らはこの事例を利用して根本的な問題を浮き彫りにした。何百万人もの成人がすでに 信頼できる医療情報 それは理解できます。検索エンジンがAIレイヤーを組み込んでいて、それが実際には従来の情報源と競合するのであれば、品質基準は特に高く設定されるべきです。

このフォーラムの会長であるスー・ファリントン氏は、Googleが要約の一部を削除する決定について次のように述べた。 「良い第一歩」しかし彼は、自動生成された不正確な健康関連コンテンツが依然として多すぎると主張した。彼の見解では、検索エンジンの役割はユーザーを次の情報へと導くことであるべきだ。 参照保健機関 臨床判断に代わるものではない確率モデルに過度に依存するのではなく、健全な編集基準を備えた主体と組織が協力して取り組む必要があります。

一方、テクノロジーとメディアの専門家は、この事件が不快な現実を浮き彫りにしていると指摘している。グーグルは、 がんや精神疾患 認定された情報源に依拠し、専門家への相談を推奨しているものの、このシステムには重大な誤りがないわけではない。ヴィクター・タンガーマンのような編集者は、 未来主義起こったことは、医療などの機密性の高い分野におけるこれらの機能の展開が まだ熟していません。.

AIが「インターネット博士」への入り口となるとき

Googleの要約機能は、何の脈絡もなく突然現れたわけではありません。長年にわたり、何百万人もの人々がGoogleの要約機能と呼ばれるものを利用してきました。 「ドクター・グーグル」 症状を確認したり、診察後に疑問を解消したり、医者に行く前に準備したりするために。今、変化しているのは、ユーザーと元の情報源の間に置かれた技術的なレイヤーです。

最近まで、このモデルは比較的明確でした。 検索エンジンはリンクのリストを提供し、各ユーザーはどの Web サイトを信頼するかを判断する必要がありました。現在、AIパネルは最も目立つスペースを占めており、 彼らは情報を次のように提示する。閉じられた、非常に自信に満ちた答えこれにより、検索や比較を続ける必要がないという感覚が強化されます。

この変化は、 ヨーロッパの公衆衛生例えばスペインでは、地域の医療システムと保健省が、市民が疑問に対する答えを確実に見つけられるよう、専門家が検証した情報ポータルに投資しています。検索エンジンのAIレイヤーが、ユーザーがこれらのウェブサイトにアクセスする前にユーザーの注意を引くことができれば、 厳密でない近道が常態化するリスクは明らかである.

その上、 質問の言い方が重要になる英国の研究によると、ある表現を別の表現に置き換えることで、システムが自動要約を表示するかどうかを決定する可能性があります。医学用語やアルゴリズムの複雑さに馴染みのない一般の患者にとっては、この違いはほとんど目立ちませんが、 慎重な対応を受けるか、曖昧なメッセージ.

対面での医療相談の時間が限られており、待機リストが人口の大部分にとって懸念事項となっている状況では、 AIツールにより多くの決定を委任したいという誘惑は理解できるだからこそ、 これらの自動応答の失敗は些細なことではありません。

あらゆる状況から見て、従来の検索エンジンと生成型人工知能の組み合わせは、ヨーロッパの人々が健康情報にアクセスする上で、今後も中心的な役割を果たし続けるだろう。Googleが一部の医療要約で行った失策は、誤った解釈がどれほど深刻な結果をもたらすかを示しており、モデルがどれほど進歩したとしても、健康情報はより正確でなければならないという考えを改めて浮き彫りにしている。 臨床判断、文脈、そして人間の監督 患者にとってさらなるリスクとならないようにするためです。