LIN NEWS
法人ニュース
  • Home
  • /
  • 法人ニュース
  • /
  • LIN News
LIN News
[Tech Legal Insights] AIモビリティ、革新か、責任か:製造物責任法制の未来
2025.05.22.
関連業務分野
メンバー
. 序論


人工知能(AI)基盤のモビリティは、自動運転車、都心航空モビリティ(UAM)などを通じて交通システムの革命的な変化を引き出し、我々の生活と産業全般に新たな可能性を示しています。AIは自ら学習し、時には予測不可能な決定をすることもあり、継続的なソフトウェアアップデートを通じてその機能と性格が変化する特性があります。このようなAIの特性は、かつてない利便性を提供すると同時に、事故が発生した場合の責任所在の解明をめぐる複雑で新しい法的課題を引き起こします。

今回のTech Legal Insightsでは、AIモビリティ技術の発展という「革新」の価値と、利用者の安全及び権益保護という「責任」の価値をどのように調和させるのかという本質的な質問から出発しています。AIモビリティ産業の健全な成長を支援しつつ、発生する可能性のあるリスクに効果的に対応し、消費者の信頼を確保することができる製造物責任法制の方向性を、国内外の動向と主要争点の分析を通じて模索してみたいと思います。

II. の法制現況
 
韓国でAI基盤モビリティに関する事故が発生した場合、一次的には現行の「製造物責任法」、「自動車損害賠償保障法」、「自動車管理法」などが適用されます。しかし、現行の法規はAI技術の特殊性を十分に反映できていないため、いくつかの限界を持っています。

*ソフトウェアが「製造物」に該当するのか現行の「製造物責任法」は「製造されたまたは加工された動産」を製造物として定義しているため(第2条第1号)、AIソフトウェアやデータ自体がこれに含まれるかどうかについて論争があります。ソウル中央地方法院は、保存媒体に収められて流通されるソフトウェアを製造物として認めた事例がありますが(ソウル中央地方法院2006.11.3.宣告2003ガ合32082判決)、これは無形物であるソフトウェア自体ではなく、当該ソフトウェアが保存された媒体を動産とみて判断したものでした。ソフトウェアを製造物責任法の適用対象となる動産と見なすことは難しく、ソフトウェア自体に対して製造物責任法を適用した事例はありません。現行の製造物責任法では、ネットワーク基盤で持続的に更新されるAIの特性を考慮した判断をするには限界があり、AIの欠陥に対しては適用しにくい問題があります。

*及び因果係の立証の難しさAIの複雑性と意思決定過程の不透明性(ブラックボックス現象)により、被害者が製造物の欠陥及び損害との因果関係を立証するのは非常に難しい課題です。これは製造物責任法の実効性を阻害する要因になります。

*最近の立法動向:政府と国会は、AI技術の発展を支援すると同時に、安全と信頼を確保するための立法的な努力をしています。2025.3.20から施行中の改正「自動運転自動車の商用化促進及び支援に関する法律」(自動運転自動車法)は、自動運転車の性能認証制度の導入、ソフトウェアアップデートをはじめとする安全関連の事後管理責任の強化などを規定しています。また、2026.1.22から施行予定の「人工知能の発展と信頼基盤の造成などに関する基本法」(人工知能基本法)は、高リスクAIの管理体系及びAIシステムの安全性・透明性確保の原則などを規定し、今後のAIモビリティメーカーの注意義務レベルの判断や欠陥評価に間接的な影響を与えると思われます。

このような韓国の法制は、AIモビリティ産業の革新を支援しつつ、安全という社会的価値を担保しようとする努力の一環ですが、製造物責任の具体的な適用については、依然として明確な基準の設定が必要な状況です。

. 海外主要の立法動向

AIモビリティ製造物責任法制の整備は、世界各国の重要な課題として浮上しており、各国は自国の産業環境と法体系を考慮し、革新と責任のバランスを取るための多様な方式を取っています。

1. 州連合(EU)

EUはAI技術規制及び関連責任法制の整備に最も積極的であり、AI法(AI Act)、新製造物責任法(New Product Liability Directive、以下「New PLD」)、一般製品安全法(General Product Safety Regulation, GPSR)をパッケージとして推進しています。

*New PLD2024.12.9に発効し、EU加盟国は2026年12月までに国内法として導入する必要があります。この法律は、無過失責任(厳格責任)の原則を維持しながら、「製造物」の定義にソフトウェア(AIシステムを含む)、デジタル製造ファイルなどを明示的に追加しました。また、AIの自己学習、ソフトウェアアップデート、サイバーセキュリティの弱さなどを「欠陥」を判断する際の考慮要素にしました。「製造業者」の範囲もソフトウェア開発者、オンラインプラットフォームなどに拡大されました。また、製品発売後の継続的なアップグレードと学習過程で発生した事後的な欠陥についても原則的に製造業者が責任を負います。損害の範囲には、医学的に認められる精神的損害とデータ損傷が含まれますが、単純な経済的損害は除外されました。欠陥の判断は、「安全に対する消費者の合理的な期待」と「EUまたは各国の安全基準」を同時に考慮し、これは2024年12月に発効したGPSRの新しい安全基準(サイバーセキュリティなど)と連携しています。被害者の立証負担を軽減するため、技術的な複雑さで立証が「困難な場合」に法院が欠陥または因果関係を推定できるようにし、法院の証拠開示命令制度を導入し、製造業者が不応する場合にも欠陥を推定できるようにしました。ただし、製造業者は、当時の科学・技術では欠陥を発見できなかったという「開発リスクの抗弁」をすることができ、革新と責任のバランスを取っています。

*AI責任法案(AI LD)当初、EU執行委員会は、AIシステムによる特殊な損害賠償の問題に対応するため、別途のAI責任法(AI LD)の制定を推進しましたが、AIシステムの拡散抑制及び革新阻害の恐れがあるため、まだ最終的に採用されてはいません。この提案は、AIの革新と発展を考慮し、過失責任主義を基盤としつつ、AI法上の高リスク領域での義務を違反した場合、因果関係を推定する方式を通じて被害者救済とのバランスを取ろうとするものです。

2.米国

連邦政府での統一されたAIモビリティ製造物責任法はなく、主に各州の判例法(過失責任、保証違反、厳格責任理論など)と一部の成文法を通じて処理されます。連邦道路交通安全局(NHTSA)は、法的拘束力はありませんが、事実上の業界標準として機能する自動運転システムの安全ガイドラインを継続的に発表し、柔軟な取り組みを通して革新を支援しています。

3. 英国

2024.5.20、「自動運転自動車法」(Autonomous Vehicles Act)を制定し、自動運転車の商用化に必要な安全原則と責任所在を明確にしようとしています。特に、事故データの記録とシステムアップデートを担当する「承認された自動運転法人(ASDE)」の概念を導入し、自動車メーカー以外にもソフトウェア提供企業なども責任主体としたことが特徴です。


このように、各国はAI技術の発展様相と自国の産業環境を考慮し、様々な方法で責任法制を模索し、これは韓国の法制改善において、革新と責任の調和という目標達成のための重要な参考資料になると思われます。

. AIモビリティの製造物責任の核心的な争点

AIモビリティの製造物責任をめぐる法的争点は、技術の革新性を阻害せず、公正な責任を課すための繊細な対応が必要です。

*「欠陥」の再構成AIシステムの学習データの偏向、アルゴリズムの予測不可能または差別的な誤動作の可能性、サイバーセキュリティの弱点などを、従来の製造・設計・表示上の「欠陥」としてどのように規定し、その判断時点をいつにするかが重要な課題です。技術の進歩を阻害しない合理的かつ具体的な基準の策定が必要です。

*「ブラックボックス」と立証責任AIの複雑性と意思決定過程の不透明性による被害者の立証の困難を軽減するため、EUのNew PLDのよう、法院の証拠開示命令や特定の条件での欠陥・因果関係の推定など、情報の非対称性を解消し、被害者救済の実効性を高めつつ、製造業者の防御権を保障するバランスのとれた方策の模索が重要です。

*複雑な責任関係 AIモビリティ生態系は、完成車メーカーだけでなく、AIアルゴリズムやソフトウェア開発会社、データ提供者、通信事業者など、多様で分化した主体が関与しています。こうした複雑な責任所在をどのように合理的に配分するかについて、新しい法的基準と契約的な責任装置の策定が必要です。

*継続的な進化と事後管理 AIは、市場に投入された後も、サイバーセキュリティの対応、機能改善、安全規制への対応などのため、継続的なソフトウェアアップデートや自己学習を行います。この過程で発生する可能性のある問題に対して、メーカーが製品の全サイクルにわたってどの範囲までアフターケアと安全確保義務を負担すべきか、その責任範囲を明確に定立することが、革新の持続性と安全確保義務を調和させるための重要な課題です。

. 法制整備の方向性

AIモビリティ産業の革新を促進し、国民的信頼を構築するための調和点を見つけるための多角的な分析と議論を通じて、製造物責任法制の発展的な整備が行われる必要があります。

*「製造物責任法」の現代化ソフトウェア及びAIシステム自体を「製造物」の定義に含めるか、含める場合、アルゴリズムの体系的エラー、学習データの欠陥、不十分な説明可能性、サイバーセキュリティの弱さなど、AI固有の特性を考慮した新たなタイプの「欠陥」の判断基準をどのように具体化するか、詳細な検討と議論が必要です。

*立証負担の軽減の慎重な接近技術的な複雑性と情報の非対称性を考慮し、被害者の立証責任を合理的に軽減または転換する方策を詳細に検討し、企業の正当な営業秘密保護とバランスを取りながら、事故原因究明のための被害者の情報接近権を強化する方策を模索する必要があります。これは、AI産業の発展を阻害することなく、実質的な被害救済を可能にするものと思われます。

*連法規のシナジ創出改正「自動運転自動車法」、「人工知能基本法」など、AIモビリティに関する個別法規との役割分担及び相互連携性を明確にし、法体系全般の整合性を確保する必要があります。例えば、「自動運転自動車法」上の性能認証基準や「自動車管理法」上の安全基準違反が製造物責任法の欠陥判断に及ぼす影響、関連技術標準遵守努力の注意義務を判断する際の考慮事項などを明確にする必要があります。

*タベスの責任究明事故が発生した際の客観的かつ迅速な責任究明のため、EDR/DSSADに記録される情報の標準化、データの偽造・変造防止及び信頼性の確保、関連主体(事故調査委員会、被害者、製造業者など)の情報アクセス及び分析手続きと包括的なデータガバナンス体系を確立する必要があります。

*国際整合性と産業競争力EUのNew PLD及びAI法のような先進的な国際規制の流れとの調和を綿密に考慮し、企業のグローバル競争力を維持し、国際的な通商摩擦を予防する方向性が必要と思われます。

*自律的責任の文化と支援策の並行:企業AI倫理原則を経営全般に内在化させ、設計段階から安全を最優先に考慮する開発プロセス(Safety by Design)を採用し、AIシステムの透明性と説明可能性を高めるための技術的・管理的努力を強化できるよう、政府レベルのインセンティブ提供及び明確なガイドラインの開発などの支援策も並行しなければなりません。

. 結論

AI基盤のモビリティ産業の持続可能な発展のためには、「革新」と「責任」という二つの軸のバランスの取れた発展が重要です。未来志向的な法制は、技術の革新的な潜在力を十分に発揮できるよう、柔軟性を提供すると同時に、発生する可能性のあるリスクから国民の安全と信頼を効果的に保護できる基盤とならなければなりません。

製造物責任法の改正の議論を筆頭に、AI基盤モビリティによる被害が発生した場合の責任の関係、AIの欠陥による消費者の被害に対する現実的な救済方案、AI基盤モビリティ産業に及ぼす影響などについて、国会、関係省庁、学界、産業界など多様な利害関係者の詳細な社会的議論と合意が重要と思われます。 これにより、技術に対する国民的信頼を確立し、消費者を保護し、AI基盤モビリティ産業の責任ある成長を保証できる先進的な法制度が早く策定されることを期待しています。
 

 
法務法人 麟(LIN)モビリティ・テックチームは、このような法制変化の流れを綿密に把握し、AI基盤モビリティ企業が事業をより安定的に遂行できるよう、専門性と洞察力を通じた実効的な法律諮問サービスを提供します。

上記内容に関してご疑問などございましたら、法務法人 麟(LIN)モビリティ・テックチーム(Tel. 02-3477-8695)までご連絡ください。
 
関連業務分野
メンバー
メンバー 팝업 닫기 버튼 팝업 닫기 버튼
TOP 버튼 모바일 TOP 버튼