LIN NEWS
法人ニュース
  • Home
  • /
  • 法人ニュース
  • /
  • LIN News
LIN News
[Tech Legal Insights] AI医療機器をめぐる争点と保険市場の変化
2025.07.04
関連業務分野
メンバー
食品医薬品安全処は、2025.5.7.「人工知能技術が適用されたデジタル医療機器の許可・審査ガイドライン」を制定しました。すでに2022年5月に「人工知能医療機器の許可・審査ガイドライン」が発表されていましたが、2025年からデジタル医療製品法が医療機器法の特別法として施行されるため、それに合わせて技術の変化などを反映し、新たに制定されたものです。法的効力のない文書ですが、医療機器の許可・審査部署である食品医薬品安全処は、人工知能基盤のデジタル医療機器市場が発展している傾向に合わせて、2025年1月、「生成型人工知能医療機器の許可・審査ガイドライン」を世界で初めて設けるなど、韓国のデジタル医療環境がグローバル市場において先導的であることを示しています。
 
以下では、AI医療機器をめぐる主要な現段階のイシューを検討し、それに関する医療保険市場の変化も紹介したいと思います。
 
1. AI療機器と法的問題
 

1-1 定義の問題 
イ.2025年5月の食品医薬品安全処の「人工知能技術が適用されたデジタル医療機器の許可・審査ガイドライン」は、2022年5月に食品医薬品安全処が「人工知能医療機器の許可・審査ガイドライン」で定義した「機械学習が可能な医療機器」(Machine Learning-enabled Medical devices; 以下「MLMD」)の概念をそのまま使用し、機械学習の方式で医療用データを学習し、特定のパターンを認識し、疾病の診断·予測をしたり、患者に最適なカスタマイズされた治療法を提供する機器を対象に当該ガイドラインを適用すると明示しています。
 
現行のデジタル医療製品法は、知能情報技術、ロボット技術、情報通信技術など、総理が定める先端技術が適用された医療機器法上の医療機器として「デジタル医療機器」を定義する技術基盤方式を採用しているため、MLMDは、既存の医療画像分析・検出または診断補助に使用する医療用ソフトウェアとは異なり、また、機械学習技術を活用するソフトウェアが法的なデジタル医療機器に該当するかどうかは、使用目的、機能及び人体に及ぼす潜在的な危害性などの違いによって判断されると説明しています。
 
これは、ソフトウェアだけでもデジタル医療製品法上のデジタル医療機器に分類され、食品医薬品安全処の許可・審査を必要とする場合があることを前提に、1) 医療用データに基づき、医療画像、体外診断機器から得た信号取得システム(心電計、脳波計など)のパターンまたは信号を分析し、疾患の診断・治療・経過観察に必要な臨床情報を提供するソフトウェア、2) 医療用データに基づき、医療情報を分析して得た臨床情報(例えば、腫瘍性病変の大きさ・位置など)を利用し、患者の疾患の有無、状態などに対する可能性を自動的に診断・予測・モニタリングまたは治療するソフトウェアは、そのようなデジタル医療機器になる可能性があることを示しています。
 
ロ.食品医薬品安全処のこのような立場は、米国食品医薬品局(FDA)の2022.9.28、臨床意思決定支援(Clinical Decision Support, CDS)ソフトウェアに対する最終ガイドラインの内容と同様と判断されます。特に、医療専門家(HCP; Healthcare Professionals)が使用する非医療機器(non-device)SWに対する判断基準を具体的に提示しているので、韓国の実務でも参考になると思います。
 
具体的には、1)医療画像、体外診断機器(IVD)の信号、または信号取得システムのパターンや信号を取得・処理・分析する目的でないこと、2)患者の医療情報またはその他の医療情報を表示・分析・出力する目的であること、3)病気や症状の予防、診断または治療に関してHCPに勧告を支援または提供する目的であること、4)ソフトウェアが提示する推奨の根拠をHCPが独立的に検討できるようにし、HCPが個々の患者に対する臨床診断や治療の決定を行う際にその推奨に依存することを意図していないという4つの基準を「すべて」満たした場合にのみ、「非医療機器SW」と判断され、米国FDAのデジタル医療機器規制から除外されています。
 
実務的に注目すべき部分は第3と第4の基準です。すなわち、第3の基準は、医療用SWが特定の結果や指示を提供してHCPの判断を「代替」するのではなく、勧告(情報/オプションとして定義される)を提供することでHCPの判断を「支援」しなければならず、予測のためにリスク確率、リスクスコア、または患者が特定の状態の「兆候を見せる可能性がある」という提案を提供するSWの場合、特定の結果を提供するものとみなされ、第3の基準を満たさないと米国FDAは具体的に指摘しています。また、第4の基準は、HCPがSW基盤の勧告に至った方法を理解し、自分の判断を適用できるほど十分に透明でなければならないということで、結局、医療行為の主体であるHCPに、SW活用成果物に「大部分」依存させてはならず、この基準を満たさなければ、逆に米国FDAの規制を受ける医療機器に分類されることになります。
 
このような立場は、AI医療機器が医療行為の主体である医師を支援するツールとして機能しなければならないという意味であり、韓国の現行の医療法体系はもちろん、グローバル医療AIの技術レベルも反映した結果であると思われます。
 

1-2 生成型人工知能医療機器と医師の説明義務 

イ. 食品医薬品安全処が2025年1月に発表した「生成型人工知能医療機器の許可・審査ガイドライン」は、既存の機械的な学習(machine learning)基盤のAIモデルとは異なり、大量のデータのパターンを基にした確率的推論を通じて新しいコンテンツを持続的に生成するため、既存の方法で性能及び臨床的な有効性を評価することができないことを前提に、そのような「生成型人工知能医療機器」に対する特性の一つとして「説明不可能性(inexplicability)」を挙げています。
 
すなわち、生成型医療機器の結果に対する根拠(rationale)は、訓練された医療従事者やその他の関係者もよく理解できない生成型AI自体の技術的な特性であるということを指摘したものです。
 
問題は、医療行為の主体である医療人は医療法上の説明義務を負っており、これは伝統的な医療過誤訴訟(medical malpractice)の重要な争点であるということです。
 
ロ. 具体的に、医療法第24条の2は、医療人が患者に治療方法とリスクを説明する義務を規定し、大法院は「患者が人工知能を活用した医療行為に応じるかどうかを合理的に決定できるよう、医師の説明義務は、医療行為が行われるまで適切な余裕を持って履行されねばならず、患者に十分な検討と相談の時間を提供しなければならない」と詳細に判決しています(大法院2022.1.27.宣告2021ダ265010判決)。
例えば、肺疾患の病変の判定を生成型医療機器が行った後、これに基づいて手術の可否を医師が決定、説明義務を履行する場合、医師は医療法に基づいて患者に「手術の必要性、方法及び内容」を説明しなければならないので、論理的には、疾患関連事項はもちろん、生成型医療機器の役割、信頼性と限界なども説明することにより、患者が「十分な熟考と協議の時間」を確保することができるという結論になりますが、実際、AI基盤の診断や治療過程は、アルゴリズムの複雑さなどにより、現実的に医師がこれを完全に理解し、説明することは難しいです。
 
ハ.医師の説明義務は、不法行為法の「注意義務」(duty of care)を具体化したものであるため、生成型AI医療機器を使用し、手術の必要性の有無を最終的に判断した医師は、医療行為主体としての判断根拠、AI医療機器の信頼性、限界などを説明できれば(explainable) 十分であり、AI医療機器の判断根拠についての説明までする(interpretable)必要はないと解釈されます。
 
すなわち、AIの作動過程に対するBlack Boxの部分は、AI医療機器の使用による信頼性、限界などに対する技術的な問題であって、医師の法的説明義務とは無関係であると見なすことができます。
 

1-3 医療機器法上の「危等級」体系と許可審査 

イ. 医療機器は、EU、米国、韓国ともにリスク基盤の差別的な規制を通じて製品使用を統制しながら安全を確保する代表的な領域であり、リスク(危害性)分類基準は、EUと韓国は4段階、米国FDAは3段階の区分を行うなど、具体的には違いを見せていますが、ほとんどの国が医療機器に対しては「リスク基盤の規制方式」(risk-based approach)を共通的に採択しています。
 
リスク等級を定めるための第一歩に該当するのは、医療機器の「使用目的」(intended use)ですが、AIを活用するデジタル医療機器はその性格上、自律的にデータを学習・訓練しながら進化するため、「使用目的」を通じたリスク等級管理体制が有効かどうかという疑問が提起される可能性があります。 このようなことを反映し、食品医薬品安全処の2025年「人工知能技術が適用されたデジタル医療機器の許可・審査ガイドライン」は、MLMDの特性を反映して適用されたアルゴリズム(機械学習を含む)に関して作成した資料を提出し、許可・審査を行うようにしています。
 
ロ. AIデジタル医療機器製作業者は、市場での製品競争力を維持するため、データ学習によるバージョン更新を必須事項として認識するようになりますが、米国FDAは「Predetermined Change Control Plan(PCCP)」という概念を導入し、事前に許可された変更範囲内の変更のみを認めることで、製造業界と変更許可の可否をめぐって対立しています。
 
韓国のデジタル医療製品法第11条は、「デジタル医療機器の安全性・有効性に影響を及ぼす総理定める重要な事項が変更された場合には、食品医薬品安全処長に変更許可または変更認証を得たり、変更申告をするように」し、軽微な事項である場合には、食品医薬品安全処長に報告するようにしています。
 
具体的に、食品医薬品安全処長は告示を通じて、1)デジタル医療機器ソフトウェアについては、ア.使用目的またはこれに関する核心的な性能、イ.生体信号・医療映像のような分析対象や分析技法などのアルゴリズム(分析方法)、ウ.ソフトウェア開発言語または運営環境、エ.法第14条に基づく電子的侵害行為からの保護措置に影響を及ぼす通信機能など、オ.使用仕様書またはユーザーインターフェースの変更のうち、総括評価(あるいは同等またはそれ以上の評価)を伴う変更を核心的な性能に対する変更と見なし、2)ハードウェアの変更のうち、性能または電気・機械的安全性に影響を及ぼさない当該デジタル医療機器の外形、大きさ、ボタンの形状及び位置、取っ手などの変更以外の変更も核心的な性能に対する変更として広範囲に列挙することで、すべて食品医薬品安全処長の変更許可を得る対象になるよう運営しています。
 
すなわち、デジタル医療機器については、ソフトウェアはもちろん、ハードウェアの事後変更も核心的な性能に対する変更として推定し、保守的に変更許可・審査システムを施行しています。
 
2. 療ロボットとAI
 
医療文書を整理、報告書を作成し、映像を合成、変化させることで診断の正確性を高めたり、統計的に近い合成データを生成して臨床試験・研究・患者の健康改善などを支援したり、新しい化合物構造を生成して薬物開発を加速させるなど、仮想空間でのAIではなく、医療ロボットに搭載されて活用されているAIは、診断時のリアルタイムデータ分析や最適な手術経路などの意思決定、 さらに、手術中の作業補助、リハビリなどに注力して商用化されたものであるため、特定の作業、特化されたデータとアルゴリズム、複雑な作業順序などの特性上、より高次元の技術開発、またそれに伴う複雑な規制が必要となります。
 
特に、診断や検査ではなく、外科手術に使用される物理的なロボットは、FDAが分類した技術等級によると、現在、大部分が(世界的に圧倒的な市場占有率を示しているda Vinciシステムを含む)レベル1であり(da Vinciは、医師がレバーを直接操縦すると、ロボット手術機がこの動作を同時に再現するマスター・スレーブ方式)、関節手術などの一部で活用されているMakoシステムの場合、医師がロボットの腕を作動させると、決められた範囲内の手術をそのまま実行するようなレベル2の技術段階にいるものの、結局、医療現場での手術ロボットは現在技術的に、 また法的に医師の「補助的な道具」であると評価することができます。
 
人間の身体と生命を対象とする医療の特性上、AIを搭載したロボットが病気の診断、検査、患者のリハビリなどの領域を超え、手術などの医療行為を自律的に行うことができるようにするためには、法的に見れば、今後、現行の医療法制度はもちろん、手術ロボットに法人格を認めるかどうかという根本的な問題から検討する必要があります。
 
3. 医療保険市場の変化
 
3-1. AIが医療機器、データ処理などに活用され、拡散されるにつれ、保険商品を設計する際に予想できなかった新たなリスクに備えた複合保険商品も登場していますが(InsurTechの保険会社として有名なRelm保険会社が今年1月に発売したPONTAAI商品が代表的です)、医療保険市場でも関連に特化した商品が続々と登場しています。しかし、2024年8月から施行されているEU AI法が、診断、診療における意思決定など医療分野でのAI活用を高リスク(high-risk)領域と定め、リスク管理システムを活性化しなければならず、高品質のデータ管理体制と利用者に対する情報提供の透明性と正確性、人間による監視体制などを義務化し、このような義務履行の最終期限は遅くともEU AI法施行の後2年以内である来年8月までと定められています。
 
保険詐欺を感知し、加入者の信用評価、行動パターン分析などにももちろんAIは活用される可能性がありますが、特にコスト削減のために保険会社が関心を持つ「保険加入者の行動パターンをAIが分析し、詐欺の可能性を測定する」行為は、高リスクAIに分類され、厳しい規制を適用されるため、現在個人に合わせた保険商品の開発及び提供 、個人健康情報基盤のリスク評価と保険料の割引、払い戻し、既存の医療過失責任保険(medical malpractice insurance) の約款にAI関連の特定リスクを追加・免責するなどの特約を追加したり、技術水準を考慮して「医師の最終検討」プロセスを強調する程度が、医療保険商品の変化の様相と思われます。
 
もちろん、AIが急速に普及しているAI医療機器製造業者及び開発会社を対象にした新しい保険商品も競争的に開発中であり、医療機関が保有している敏感な患者の医療情報をAIで処理、診断、手術などに活用することに伴うサイバー責任保険商品も登場しています。また、Anthem、Aetnaなど米国の大手保険会社がウェアラブルデータ、電子健康記録、生活パターンデータなどをAIで分析し、個人別の危険度を正確に評価し、健康な生活を継続する加入者には保険料の割引特典を提供すること、AIチャットボットが1次的な健康相談を提供し、必要に応じて医療陣と連結してくれるサービスが含まれている英国のBabylon Health社の保険商品のようにTelemedicineと連携した保険商品も市場で販売されています。
 
3-2. 現代的な社会保障制度の一環として、ドイツで19世紀末に労働者のための健康保険制度が初めて始まって以来、公共保険と民間保険の役割分担をめぐる貢献比重の違いはあるものの、「診療後の費用負担額を事後補填する方式」を共通して各国の医療保険制度は長期間運営されてきました。これに伴い、保険事故と保険料率を決定するために、過去のデータを集めて保険商品を開発・販売してきましたが、デジタルとAIの影響で、今や医療保険自体が「事前に予測して予防する」(Predict & Prevent)方向への変化を見せています。
 
これは、病気が発生する前に、治療が始まる前に、ウェアラブル健康補助ツールなどを通じて個人の電子健康データをリアルタイムでチェックできることはもちろん、食事、喫煙、飲酒、仕事のパターン、習慣などの関連変数まで考慮した定期的なオンライン健康診断も簡単にできるようになり、遺伝子情報まで活用されるようになり、老後の健康管理も体系的に可能になったため、リスクを予測して事前予防するデジタル医療保険システムの導入が実際に行われるようになったのです。特に、AIの活用により、学習データ基盤の保険加入者別の潜在的な疾病の可能性、手術後の後遺症、副作用を予測するという個人に合わせたサービスの提供はもちろん、分野別の関連データの精緻化に基づき、薬の服用の有無、転倒、慢性疾患の可能性の警告や食事、運動、定期検査の勧奨などの多様な保険関連サービスの開発及び提供も現実的に可能になりました。
 
このような結果は、保険加入者はもちろん、保険会社にも費用支出の減少とリスク管理の体系化など共通の利益をもたらすため、個人はもちろん、医療機関、医療データを活用する関連機関まで利用できるAI関連の総合医療保険や特化された商品開発で現れ、特に民間の医療保険市場の変化はさらに競争的になると予想されます。
 
保険市場のこのような革命的な変化を可能にする前提は、AIを活用して医療データの共有と活用を可能にする個人デジタル健康記録の統合、管理及び活用システムの構築及び活用であり、現在進行中の韓国のMy Healthway事業や今年3月に発効した欧州のEHDS(European Health Data Space)法がそのようなシステム構想の具体的な例であると思われます。 (この内容については、前回のAID5号を参考)


 
医療過失、製造物責任、データ保護などの伝統的な問題の他に、生成型AIを利用者が
検索と相談のためのツールとして活用することが多くなり、幻覚(hallucination)を通じて誤った医療情報を生成し、診療や処方まで作り出すなど、新たな法的問題も発生しています。
一方、MSは6月30日、熟練した医師グループより4倍以上の診断正確度を持つAI診断オーケストレーター「MAI-DxO」を公開することで、医療AIの革命的な変化を予告しました。
 
<毎月発行する法務法人(有) 麟(LIN)TMTグループAI産業センターのニュースレターであるAIDに関して気になる点がありましたら、グ・テオンTMT専門グループ長(tekoo@law-lin.com)
バン・ソクホAI産業センター長(shbang@law-lin.com)
ソル・ギソク構成員弁護士(ksseol@law-lin.com) までご連絡ください。
 
 
関連業務分野
メンバー
メンバー 팝업 닫기 버튼 팝업 닫기 버튼
TOP 버튼 모바일 TOP 버튼