医療分野における人工知能(AI)の曖昧な現状を打開するため、保健福祉省(HHS)は、AI透明性規則(HTI-1)という極めて重要な措置を制定しました。予測AIモデルの複雑さを明らかにしようとする試みは高く評価されていますが、専門家は、この規則は有益ではあるものの、急速に進歩するこの技術に内在する課題に対する包括的な解決策を提供するには至らない可能性があると警告しています。.
AI透明性規則は、医療AI市場、特に予測モデルにおいて、透明性が著しく欠如しているという認識から生まれました。米国保健福祉省(HHS)の医療情報技術担当国家調整官室(ONC)の認証・試験担当副局長であるジェフ・スミス氏は、この取り組みの緊急性を強調しています。この規則は、予測AIモデルの設計、開発、試験、訓練、評価に関する情報の不足に対処することを目指しています。この不足は、数百万人ものアメリカ人に影響を与える被害につながっています。.
ルールの原則を明らかにする
AI透明性規則に基づき、ONCは2つの包括的な政策カテゴリーを最終決定しました。第一に、この規則は、予測的意思決定支援介入(DSI)がどのように設計、開発、訓練、評価され、そしてどのように使用されるべきかに関する包括的な情報の提供を義務付けています。これは、ユーザーが利用するAIアルゴリズムをより深く理解できるようにするための重要な一歩となります。.
また、この規則では、予測型DSIの導入においてリスク管理が極めて重要な役割を果たし、ガバナンスに基づいて設計と実装が進められなければならないと規定されています。情報開示とリスク管理を含む枠組みを構築することにより、この規則は、国家規模でAIアルゴリズムの品質を評価するための基準を構築することを目指しています。.
アバレア・ヘルスのデータ・アナリティクス担当リーダーであるマンダー・カルハデ氏は、一部のAIモデルの背後にある意図が必ずしも明確ではないことを強調しています。目標が診断、コスト削減、あるいはその他の目的であっても、その不明確さは潜在的な課題をもたらします。tron医療記録(EHR)は影響を受けやすい領域として浮上しており、オラクルの「オートコンプリート」のようなAI機能は、正確性や意図しないデータの追加に関する懸念を引き起こしています。.
ジェフ・スミス氏は、AI透明性規則と食品の栄養成分表示を比較し、必須情報の提供におけるその役割を強調しています。クォールズ・アンド・ブレイディの法律専門家であるメーガン・オコナー氏は、開示される情報が主観的で測定不可能な性質を持つと指摘し、この類似性に異議を唱えています。この指摘は、医療IT開発者がこうした情報をどのように伝達し、医療提供者がそれをリスク分析にどのように統合するかという疑問を提起しています。.
AI透明性ルールの範囲の評価
ブルッキングス研究所の非dent シニアフェローであるニアム・ヤラギ氏は、批判的な見解を示しています。このルールはAIにおける公平性を確保するという崇高な目的を掲げていますが、ヤラギ氏はこれをやや反動的なものと捉えています。ヤラギ氏は、AIの急速な進歩を促進し、医療システムにおけるデータサイロなどの障壁に対処する政策を提唱しています。.
AIの透明性という複雑な迷路を進む上で、この規則は大きな前進と言えるでしょう。しかしながら、医療業界がAIの進化という難題に取り組む中で、依然として疑問が残ります。透明性だけで、医療におけるAIか?テクノロジーと医療の融合によって生じるダイナミックな課題に対処する上で、この規則の能力には固有の限界があるのでしょうか?関係者がこの進化する領域を慎重に検討していく中で、イノベーションと説明責任のバランスを追求することが、依然として極めて重要です。

