業務分野
関連メンバー
法人ニュース
法務法人 麟(LIN)
アクセス
外部提携機関
人材採用
JP
│
KO
│
EN
│
CN
JP
│
KO
│
EN
│
CN
業務分野
関連メンバー
法人ニュース
法務法人 麟(LIN)
外部提携機関
│
人材採用
LIN NEWS
法人ニュース
Home
/
法人ニュース
/
LIN News
LIN News
[Tech Legal Insights] 人工知能基本法の特徴と今後の立法課題、企業への影響について
2025.02.03
関連業務分野
メンバー
VIEW MORE
AID (Artificial Intelligence Decoding) Vol. 1 2025. 01
2024.12.26.「人工知能の発展と信頼基盤の構築などに関する基本法」(以下「人工知能基本法」)が国会を通過しました。EUのAI法を参考に、人間の生命、身体の安全及び基本権に重大な影響を与えたり、危険をもたらす恐れがある高影響系AIシステムの領域を規制しつつ、韓国独自の人工知能技術と産業の発展、安全性確保の意志も盛り込まれています。AI関連の包括的な法制化は、先行するEUのAI法に影響を受けてはいますが、単一国家としては世界最初のものです。 以下では、韓国の人工知能基本法の特徴と今後の立法的課題、企業への影響などを外国の事例と比べ、検討していきたいと思います。
1. 人工知能基本法の規制体系
人工知能基本法は、EUのAI法のように、人工知能の活用がもたらすリスク(影響)に対する評価を通じて10種類の「高影響」規制領域を挙げ、大統領令で細部種類を追加することができ、関連「リスク」は人工知能安全研究所が定義・分析をするよう委任しています。また、製品及びサービスがもたらす高影響の有無に対する判定権限を科学技術情報通信部長官に付与しています。一方、EUのAI法が採択した「リスクベース(risk-based)」の規制方式は、AI法だけでなく、2018年に発効させたEU個人情報保護法、2024年12月から発効されている一般製品安全法などでも共通に確認することができるグローバルスタンダードの一種だと思われます。したがって、今後、人工知能基本法の運営を通じて、どのような関連データと基準によって人工知能がもたらす影響(リスク)を判定し対処するのか、また、EUに輸出しようとする韓国の事業者が守らなければならない高影響の基準は、高リスクとどのように異なるのか、どのような手続きを通じて追加規制のリスクなしに輸出できるのかなどは、追加分析が必要であると思われます。
1-1. 人工知能基本法の施行体系
人工知能基本法は、基本計画など汎政府的な推進計画を樹立して実行するにあたり、既存の「知能情報化基本法」の総合計画及び実行計画を考慮するよう定めているため、基本計画は「知能情報化基本法」の部門別推進計画とみなすと明示することで、人工知能基本法の政府基本計画は、論理的に「知能情報化基本法」の総合計画と実行計画の樹立が先行してこそ可能になる構造です。さらに、人工知能基本法は最高政策審議・議決機関として大統領傘下の国家人工知能委員会を設立するようにしていますが、すでに知能情報化基本法で最高審議・議決機関として情報通信戦略委員会が人工知能領域を管轄することに定めたため、運営上のガバナンスに対する調整も必要と思われます。付則は、公布後1年が経過してから施行すると明示していますが、これは知能情報化基本法との関係上、必然的な時間計算と思われます。これは、知能情報化基本法施行令第5条で「中央行政機関長と地方自治体長は、毎年12月31日までに翌年の実行計画を確定して、翌年1月31日までに科学技術情報通信部長官と行政安全部長官に提出する」と規定しているため、人工知能基本法による政府の基本計画は2026年になって策定できるという計算が成り立つからです。
1-2. 生体認証情報の活用に対する規制
人工知能基本法は「高影響」の例として「犯罪の捜査や逮捕業務のための生体認証情報の分析・活用」を挙げていますが、EUのAI法では、生体認証情報をどのように活用するかによって「許可されていない」リスクになったり、または「高リスク」に分類されたりします。「生体情報」は現行の個人情報保護法施行令第18条に規定された「機微情報」として実生活で使用されている顔認識情報をはじめ、サイバーセキュリティ、自動運転、スマートフォン認証、医療など様々な分野で顔認識技術の核心データとして活用されているだけでなく、最近の新型コロナパンデミックの時期には、公共空間での熱スキャナーを活用した顔認識システムの設置など、その活用がより一般化されました。そのため、国家人権委員会も個人情報保護の観点から懸念を表明し、EUのAI法で「禁止」されるAI活用領域は、AIが含まれた知能型CCTV(AI CCTVとも呼ばれる)を利用して群衆の中で特定の人をリアルタイムで識別(identification)するための用途を指します。つまり、EUのAI法上、AI基盤の生体情報を通じた本人確認(verification)作業は「高リスク」にも分類されず、たとえ「禁止」されているリアルタイムAI CCTV活用の場合でも、誘拐、人身売買など犯罪の被害者を識別や、テロの容疑者を追跡するなどの例外的な場合には許可されています。また、EUのAI法は、「生体情報」を活用しようとする司法執行機関が事前に「基本権影響評価」を受け、その結果を管轄機関に通知するように規定しています。 しかし、「生体情報」も個人情報であるため、EUのAI法は、2016年のEU個人情報保護法に基づく情報保護影響評価を受けた場合、これに代わるよう規定しています。韓国の人工知能基本法は、そのような人工知能影響評価の詳細規定を大統領令に委任していますが、すでに個人情報保護法は関連規定を定めている点も考慮する必要があります。
1-3. 教育分野におけるAI活用に対する規制
人工知能基本法は、高影響領域の一つとして「教育基本法第9条第1項による幼児教育・初等教育及び中等教育における学生評価」を重視しており、EUのAI法もすべてのレベルの教育・訓練機関でAI活用によるアクセス、学習結果評価、等級評価などについて段階的な詳細な規制を行っています。このような点で、最近問題になったデジタルAI教科書の場合、個人ごとのレベルに合わせた学習を通じた学習効果の向上という肯定的な側面もありますが、個人情報侵害などの否定的な側面もあるAI活用領域です。特に、EUのAI法は、利用者個人の応答による学習成果物をAIが評価し、これに合わせてカスタマイズされた学習過程を提供することは、高リスクに分類される危険要素があると見なされますが、最終的な判断のためには、高リスク分類の例外事由として挙げられた「人間の意思決定に重大な影響を与えない場合をはじめ、健康、安全、基本権に深刻なリスクをもたらさない場合」に該当するかどうかまで検討するようにしています。デジタルAI教科書をどのように規制するかという問題は、人工知能基本法の特性上、事業者の自律的な措置に任せられているため、一定期間、関連データの処理・蓄積などに対する技術的な分析作業が先行されてこそ、高影響領域として別途に分類し、継続的に管理をしなければならない程度の高影響領域であるかどうかについての最終判断が可能になると思われます。
2. 人工知能基本法の法制度的な課題
人工知能基本法制定のパラダイムを2020年に制定された知能情報化基本法の母体である情報化促進基本法(1995年制定)、これを全面的に改正した国家情報化基本法(2009年全面改正)の延長線という観点からアクセスされたため、人工知能社会、人工知能倫理という法律用語の使用からも表れているように、国家全体の知能情報化というマクロ的な次元において人工知能の発展と安全性の確保の両立を目指したため、法運用による調整の問題は避けられないと思われます。もちろん主管省庁は両法とも科学技術情報通信部ですが、公共情報化を担当する主管省庁である行政安全部も知能情報化基本法上、実行計画を樹立する際は、もう一つの軸として参加することになっているため、人工知能基本法を適切に運営するには、現行の法体系上、行政安全部の協力が必要であり、現行の人工知能基本法の主要政策手段も知能情報化基本法のものと「同期化」されるしかないと思われます。したがって、今後、人工知能基本法固有の特性、特に関連技術と産業の国家競争力の確保及び発展という課題を反映した立法補完作業を通じ、独自の意義と時代的な重要性を強調する必要があるものと思われます。
2-1. EUのAI法と人工知能基本法の規制体系の比較
2026.8.2.から本格的に施行されるEUのAI法は、EU設立条約に盛り込まれた共同体の価値、すなわち人権と自由の保障に合致するように、AIが健康、安全、基本権に関する公共の利益を保護するため、人間中心の技術でなければならないと宣言し、特に個人の権利、安全、幸福に重大な影響を及ぼす高リスク領域を8つ挙げ、2027.8.2.から規定が全面的に適用されるようにしています。また、高リスクAIシステムの活用領域は、リスク管理システムの設置、データガバナンス及び偏向防止、透明性の確保及び監督、そして適合性評価を通じた認証及びEUデータベース登録などの事前的な手続き要件を満たさなければならないと規定しています。韓国の人工知能基本法も同様に、生命、身体の安全及び基本権に重大な影響を及ぼしたり、危険をもたらす恐れがある高影響領域を10に分けて定義することで、人間中心のAI技術開発及び普及、信頼できる安全措置などを強調していますが、AI活用と革新が阻害されないよう事業者の自主規制を基調としています。具体的には、高影響AI活用サービスや製品を提供する事業者が、自律的に安全性と信頼性を保障する措置をとるようにしているものの、科学技術情報通信部長官の事後監督を付加する方式を提示しています。
3. 示唆
人工知能基本法は文字通り「基本法」であるため、高影響に関する法律が体系的に整備されなければなりません。EUはAI法のほか、デジタル技術の拡散による変化に対応するため、2024年12月に発効した一般製品安全法と製造物責任法、そして2021年5月から施行されてはいるものの、2028年12月まで医療機器がもたらすリスクなどを考慮して段階的に適用される医療機器法などの立法整備作業を続けています。特に、AIをはじめとするSWの活用が製造業に拡散され、EUは1985年の製造物責任法を全面的に改正した新しい法(Product Liability Directive)を2024.12.9.から施行し、国内法への転換時期は2026年12月までと設定しています。また、EUの新しい製造物責任法は、被害者の救済をより容易にすることを目指し、立証責任を調整するなどの方法で既存の法律を補完しつつ、製造業者に過重な負担をかけないように配慮していることを考慮し、AI活用ブームが起きている製造業分野において、不必要な紛争が発生しないよう、2000年1月に制定された現行の製造物責任法を整備する必要があります。さらに、今回通過した人工知能基本法が、人工知能事業者、利用者以外に「影響を受ける者」という用語を新たに定義して、EUが一般的に使用してきた「高リスク」の代わりに「高影響」という用語を使用しているため(EUのAI法では、汎用AIの学習データが一定限度を超える場合、「高影響係」AIとして分類、システムリスクに対する追加規制を行っている)、国境のないグローバルな通商環境において、今後の製造物責任紛争に備えて事業者の自主規制を保障しつつ、AIを活用する企業の革新的な活動が阻害されないよう、被害範囲及び原告適格の拡大などによる追加被害を事前に防止できる政府の産業別ガイドラインや関連告示の制定も必要と思われます。
Silicon Valleyでは、2025年をAI、量子技術とビジネスのスーパーサイクルが生まれ始める
元年とみなしています。
法務法人 麟(LIN)のAI産業センターは、
このような技術革新の大転換期に国内外の主要イシューを分析し、
関連立法と政策、そして企業活動の導となるAIDを毎月発行します。
内容に関してご質問がありましたら、ク・テオンTMT専門グループ長(tekoo@law-lin.com)、バン・ソクホセンター長(shbang@law-lin.com)までご連絡ください。
リスト
前へ
[Mobility Legal Updates] 都心航空交通実証事業に関する規制特例など
2025.01.13
次の記事
[Mobility Legal Updates] 「1回充電走行距離」認証に関する大気法改正案の発議など
2025.02.03
関連業務分野
メンバー
VIEW MORE
メンバー
VIEW MORE
Share