本記事では、医療・ヘルスケア分野におけるAIのバイアスをめぐる課題と、それを克服する方法について解説します。また、医療・ヘルスケア分野でのAIバイアスの管理について学べるStarのウェビナーも視聴いただけます。
ここ数年で、AIは医療・ヘルスケア業界に変革をもたらしました。今では、病気の診断、患者さんの健康状態の予測、管理プロセスの効率化に、AIを活用したツールが使われるようになっています。
その一方で、AIが医療システムに浸透していくなか、AIによるバイアス(偏り)についての懸念が高まっています。そのようなバイアスは、とくに医療の分野では、医療の格差、誤診、特定の属性をもつ人々への不公平な扱いなどにつながり、重大な影響をもたらす可能性があります。
そこでこの記事では、医療・ヘルスケア分野におけるAIのバイアスの問題と、その影響、そしてバイアスを軽減するために何ができるのかについて見ていきます。
AIバイアスとは?
AIバイアスとは、AIを使ったモデルやシステムに、構造的な不公正さや差別が存在することを指します。AIバイアスは、不均衡なデータの使用や設計の不備により、アルゴリズムが偏った予測、判断、分類を行うことで生じます。
医療分野において、AIは診断、予測モデル、個別化治療の計画、治療方針の判断など、さまざまな用途で使われています。
そのAIモデルに偏りがあると、人種、性別、社会・経済的地位といった属性によって、特定の患者さんのグループに不公平な影響がもたらされる可能性があります。実際に、米国内の病院で2億人以上の患者さんに対して用いられていたアルゴリズムが、黒人よりも白人を大幅に優遇するものであったことが調査によって明らかになっています。

医療・ヘルスケア分野でAIバイアスが生じる原因
医療・ヘルスケア分野で用いられるAIモデルにバイアスが生じる原因はいくつかあります。多くの場合、それらはデータのバイアスに関わるものです。
- 過去の不公平さが引き継がれる:当然ながら、AIシステムが取り込めるのは、すでに存在するデータのみです。つまり、過去の医療データにすでにバイアスが含まれていると、それが引き継がれることになります。残念ながら、特定の属性をもつ人に対して、歴史的に医療サービスが十分に提供されていなかったり、正確な診断がなされていなかったりしたことがあります。たとえば、医療提供者が少数派の社会集団に属する人々に対して、ある症状を過小診断または誤診していたとすれば、そのデータにもとづいてトレーニングされたAIモデルにもバイアスが反映され、その結果、不正確な治療を推奨してしまう可能性があります。
- データや前処理における不均衡:AIモデルは多くの場合、大規模なデータセットを使ってトレーニングされます。そのデータが多様な集団を適切に反映していなければ、AIモデルに偏りが生じる可能性があります。機械学習モデルのトレーニングやテストに用いるデータは、対象とする現実の集団を適切に反映した、独立したものでなければなりません。ただ、バイアスを除去しさえすればいいというわけではありません。たとえば、過去のデータが不足しているグループの重み付けを変えるなど、最終的なプロダクトでの公平性を確保するために、データやモデルにあえて偏りを含める必要がある場合もあります。バイアスが含まれたデータをもとに判断のモデルが作られると、AIもその偏りを再現し、それをさらに広めてしまうことになるからです。
- データや前処理における不均衡:AIモデルは多くの場合、大規模なデータセットを使ってトレーニングされます。そのデータが多様な集団を適切に反映していなければ、AIモデルに偏りが生じる可能性があります。機械学習モデルのトレーニングやテストに用いるデータは、対象とする現実の集団を適切に反映した、独立したものでなければなりません。ただ、バイアスを除去しさえすればいいというわけではありません。たとえば、過去のデータが不足しているグループの重み付けを変えるなど、最終的なプロダクトでの公平性を確保するために、データやモデルにあえて偏りを含める必要がある場合もあります。バイアスが含まれたデータをもとに判断のモデルが作られると、AIもその偏りを再現し、それをさらに広めてしまうことになるからです。
- 学習に用いる特徴の選択やアルゴリズムの設計:モデルの推論に役立つ特徴を選択する際に、バイアスをもたらす可能性のあるセンシティブなデータ(人種、年齢、性別など)に注意を払う必要があります。たとえば、モデルが郵便番号など、社会経済的地位に関連する偏りのある特徴を用いていれば、すでにある医療アクセスの不平等を間接的に強化してしまう可能性があります。一つひとつの特徴がモデルの予測にどの程度寄与しているかを分析することも、隠れた偏りを発見するのに役立ちます。また、AIアルゴリズムの設計やモデリングのプロセスで、「過学習」(学習用のデータに対してしか良い精度を出せないこと)や学習不足があると、実際のデータでは適切に機能しないモデルを生み出してしまう可能性があります。
- 説明可能性や透明性が不十分:多くのAIモデルは「ブラックボックス」とみなされています。つまり、判断の明確な根拠が示されていないということです。このように透明性が確保されていないことが、システム内のバイアスを特定し修正することを難しくしています。医療従事者が、AIシステムがどのようにしてその判断に至ったのかという過程を理解できなければ、そのモデルの公平さや正確さを保証することは困難です。さらに、市場に出ているAIプロダクトの提供者や開発者が、販売後のパフォーマンスを監視できなければ、未知の問題が発生して、ユーザーに悪影響を及ぼす可能性があります。

医療・ヘルスケア分野におけるAIバイアスの影響
医療・ヘルスケア分野におけるAIバイアスの影響はすでに広範囲に及びつつあります。不正確な予測、誤診、医療への不平等なアクセスは、すでにある健康格差をさらに拡大させ、弱い立場にある人々の健康状態を悪化させる可能性があります。医療におけるAIバイアスの影響として、以下のようなことが考えられます。
- 健康格差の拡大:AIシステム内で生じるバイアスは、社会集団間での健康格差を拡大する要因になり得ます。集団間でAIモデルの正確性に差がある場合、とくに歴史的に社会の主流から取り残されてきた集団に対して、不平等な治療やケアがなされるおそれがあります。
- 患者さんの安全性への影響:バイアスのあるAIモデルは、患者さんの安全性を損なう可能性があります。たとえば、主に男性のデータで訓練されたアルゴリズムは、女性の心臓病を正確に特定できず、それが診断での見落としや治療の遅れにつながる可能性があります。AIによる予測が不正確だと、患者さんが不必要な苦痛や合併症、さらには死のリスクにさらされるおそれがあります。
- 信頼の喪失:患者さんや医療従事者が、AIシステムに偏りがあると認識すれば、そのテクノロジーに対する信頼が損なわれ、利用への意欲が低下します。現状でも米国人の60%は、自身の健康について医療従事者がAIに頼ることに不安を感じています。これは、より優れた診断や治療の推奨によって医療の成果を向上させることが期待されるAIにおいて、憂慮される事態です。
- 倫理的(および法的)な問題:AIのバイアスは、公平性、差別、説明責任についての倫理的問題を引き起こすとともに、法的な影響ももたらします。医療提供者、開発者、規制当局は、AIシステムが、患者さんを差別から保護する「医療保険の相互運用性と説明責任に関する法律(HIPAA)」や公民権法などに準拠していることを保証して、そのような懸念に対処する必要があります。
医療・ヘルスケア分野におけるAIバイアスの例
医療・ヘルスケア分野におけるAIバイアスの実例から、偏りがどのような悪影響を引き起こす可能性があるかが見えてきます。
注目すべき事例のひとつは、追加のケアを行うことでどの患者さんが最もメリットを得るかを予測するAIシステムでのケースです。調査により、このシステムには黒人の患者さんに対するバイアスがあることがわかりました。このアルゴリズムは医療費の高い患者さんを優先するように設計されていましたが、黒人の患者さんは多くの場合、医療的ケアを受ける機会が少なく、その結果、平均的な医療費が低くなるため、システムの予測では過小評価されていました。
これにより、黒人の患者さんに割り当てられるリソースが減り、医療の格差を拡大させる結果となったのです。
また、皮膚がんなどの診断に用いられるAIシステムの例もあります。調査により、皮膚科で用いられるこのAIアルゴリズムは、肌の色が薄い人に比べて、肌の色が濃い人に対して精度が低い傾向にあることが明らかになりました。アルゴリズムのトレーニングに肌の色が薄い人のデータが多く使われることが原因で、有色人種の人々に対する診断精度が低下していたのです。
医療・ヘルスケア分野のAIバイアスを軽減する方法
AIテクノロジーによって患者さんの健康状態を改善し、健康格差を縮小させるためには、このようなAIバイアスに対処することが不可欠です。AIモデルのバイアスを軽減するのに効果的な戦略として以下のものが挙げられます。
- 適切な代表データの使用:医療・ヘルスケア分野におけるAIバイアスを減らすのに効果的な方法のひとつは、トレーニングやテストに、人口全体を多様かつ代表的に反映させたデータを使うことです。医療提供者、調査者、開発者は、人種的マイノリティ、女性、高齢者、各種疾患をかかえる人など、さまざまな属性をもつ集団を含んだデータを積極的に探し出すべきです。社会集団や特定のユースケースに関する専門知識や分析力は、どのようなデータが必要かを理解するために欠かせない能力です。
- バイアスの監査・テスト:AIシステムを定期的に監査・テストすることは、バイアスを特定し修正するうえで大切なプロセスです。データの品質管理から、実装段階におけるバイアス評価(機能影響評価など)、社会集団のサブグループに対する検証や妥当性の確認まで、AIシステムのライフサイクル全体を通じて評価を行うべきです。開発者は、システムが公平な結果を提供するよう、さまざまな社会集団を視野に入れてAIモデルの性能を評価することが重要です。また、新しいデータが入手可能になった際には、随時モデルを更新するなど、このプロセスを継続的に行っていく必要があります。
- 透明性の確保:医療・ヘルスケア分野におけるAIシステムは、透明性と説明可能性(プロセスを説明できること)を念頭に置いて設計されるべきです。医療従事者が、AIシステムがどのように判断を行うかを理解していれば、潜んでいる可能性のあるバイアスをより適切に特定し、必要に応じて介入できます。プロセスを説明できることは、患者さんと医療従事者とのあいだに信頼関係を築くうえでも役立ちます。まだ残っている未解決のリスクや性能上の限界があることを、エンドユーザーにわかりやすく伝えることも重要です。
- 連携と監督:医療・ヘルスケア分野におけるAIのバイアスを是正するには、AI開発者、医療従事者、規制当局、政策立案者のあいだでの連携が欠かせません。被害を最小限に抑え、メリットを最大限に高める形でAIシステムが導入されるよう、監督機関は指針を示すことできるでしょう。
- 倫理的なAIの設計:AIシステムは、倫理面での配慮を最優先して設計されるべきです。具体的には、公平性を基本原則とすること、モデルを定期的に更新して健康格差についての最新の知見を反映すること、患者さんの福祉を優先することなどを考慮した設計がなされるべきです。
医療・ヘルスケア分野のAIバイアスを管理する方法
AIは、診断や治療、患者さんへのケアの向上を通じて、医療・ヘルスケア分野に革命をもたらす可能性を秘めています。ただ、そのテクノロジーを本当に有益なものとするためには、AIバイアスの問題への対処が不可欠です。
AIシステムにおける偏りは、すでにある医療の格差を固定化し、弱い立場にある人々に悪影響を及ぼす可能性があります。この問題にいかに対処し、解決していくかについて、AI医療機器におけるバイアスの管理についてのStarのオンデマンドウェビナーをぜひご覧ください。