LIN NEWS
法人ニュース
  • Home
  • /
  • 法人ニュース
  • /
  • LIN News
LIN News
[Tech Legal Insights] 人工知能生成物に対する識別表示の義務化論争・人工知能基本法案について
2025.01.13
関連業務分野
メンバー
1. 人工知能生成物表示の必要性

最近(2024.12.17.)、「人工知能の発展と信頼基盤の造成などに関する基本法案」が法制司法委員会を通過し、本会議の処理を控えている。上記法案第31条は、人工知能の透明性確保義務という表題の下、人工知能事業者に、① 高影響系AIまたは生成AIを利用した製品・サービスが人工知能に基づいて運用されるという事実を利用者に事前に告知しなければならない(第1項)、② 生成AIの生成物が生成AIによって作り出されたという事実を表示しなければならない(第2項)、③ 人工知能システムを利用して製作された現実との区別が難しい仮想の音響、イメージ、映像などが人工知能システムによって生成されたという事実を利用者が明確に認識できるように告知・表示しなければならない(第3項)という義務を課している。このように、人工知能の生成物に対して一定のレベルの表示が必要な理由は何だろうか。

生成AIが作成したディープフェイク映像、フェイクニュースなどが利用者または消費者を欺いたり、混乱させる可能性があるため、利用者保護のためにAI生成物の表示が必要であるという点が表示義務の最大の根拠だ。さらに、利用者に対する具体的なリスクを排除するという側面を超えて、人工知能倫理と関して社会秩序を維持するという観点から、人工知能生成物に対する透明性を要求するという意味もある。上記の人工知能基本法案は透明性の確保という表題を掲げているが、第1項及び第2項は生成AIの生成物に対する一般的な透明性義務を規定するものであり、第3項はいわゆるディープフェイク映像に対する具体的な利用者保護義務を規定するものである。

また、著作権などの権利保護の観点で人工知能生成物の表示を論じる意見もある。最近、生成AIの生成物の表現力が急速に向上するにつれ、AI生成物と人間の作品をほとんど区別しにくい状況に至っている。そのため、人間中心の著作権法体系に対する重大な挑戦とも言えるが、これに伴う問題として、人間の創作的な貢献がない人工知能生成物に対しても著作権のような法的保護をすべきかどうかの議論が行われている。人間の創作的貢献がない人工知能生成物に対しても一定のレベルの法的保護が必要であるという立場は、主に人工知能生成物であることが外部に表示されることを要件としており、人工知能生成物に対して一切の法的保護が不要で、ない方がよいとする立場からも、人間の作品と人工知能生成物を区別するために人工知能生成物表示が必要であると主張している。ただし、このような権利保護体系に関する表示義務は、利用者保護及び透明性確保側面の必要性よりも相対的にその重要性が低いという側面もある。


2. 利害関係者の立場

このような人工知能生成物表示について、著作権者、産業界などの利害関係者の立場は多様なスペクトルを見せている。US Copyright Officeが2023年に実施した公開意見収集の結果によると、作家、著作権集中管理団体は人工知能生成物表示に積極的に賛成している。著作権者の権利保護のためには、まず人間の創作物と人工知能の生成物を区別する必要があるからだ。一方、Microsoft、Stability AIなどの人工知能産業界は、生成物表示の必要性は認めながらも、これを法制化することには慎重な立場を示した。彼らは、人工知能生成物表示制度の直接的な受範者として、このような規制が技術発展を阻害する可能性があることを心配した結果だと思われる。一方、著作権者であり、AI技術を積極的に活用する立場である米国映画協会、ニュースメディア連合は、表示義務を肯定しつつ、表示義務の対象を高リスクの欺瞞的なサービスなどに制限し、表現の自由及び利用者の視聴の便利さを考慮して表示義務の免除を認めなければならないという中道的な立場を示した。利用者保護のために一定のレベルの表示義務が必要であるという点については、利害関係者も概ね同意しているが、表示義務の対象を全体的に一般化するのか、それとも特定の高リスクに限定して適用するのかについて論争があり、表示義務の強制が創作と表現の自由に対する悪影響と、表示義務が必要ない例外的な状況に対する認識の違いがあると思われる。


3. 国内外の法制動向

現在、法的に人工知能生成物表示制度を採択した国は、EU、中国がある。このうち、世界で初めて人工知能について詳細な法的規制を試行したEUの人工知能法(AI Act)が比較法律として重要な参考となっている。EUの人工知能法は、合成オーディオ・イメージ・映像またはテキストを生成する人工知能システムの提供者(provider)と配置者(deployer)に人工知能生成物の表示義務を課している。上記法律で注目される点は、表示義務の内容について、人工知能システム提供者と配置者の義務が一部異なること、表示義務の例外を設定していること、オーディオ・ビデオなどのディープフェイクとテキストの生成物を区別していることが挙げられる。人工知能システムの提供者は、いわゆるソリューションの提供者としてそれによる責任が設定されるべきであり、人工知能システムの配置者は、機関責任者の立場で人工知能ソリューションを対内外的に活用することに対する責任が認められなければならない。表示義務は表現及び創作の自由を阻害する可能性があるため、これに対する例外が設定されるべきであるが、そのコンテンツ(ディープフェイク)が明確な芸術的・風刺的作品である場合には、表示義務の方法を調整する必要があり、また、そのコンテンツ(テキスト生成物)が人間の検討または編集・統制過程を経たものであり、そのコンテンツの投稿に対する編集の責任を負う場合には、これをあえて人工知能生成物と表示する必要がないため、表示義務の対象から除外される(EU人工知能法第50条第4項)。また、テキスト生成物は、ディープフェイク映像とはその危険性と技術的な統制手段が異なるという点が考慮されるべきである。危険性の程度という観点から見ると、ディープフェイク映像がテキスト生成物より一般的な状況で利用者に危害を与える可能性が高く、テキスト生成物に対するウォーターマークは現時点で技術的な問題がある(特にコンテンツ流通過程で編集がある場合、ウォーターマークの保存が難しい)。

韓国の場合、特定の高リスク分野ではすでに人工知能生成物の表示義務が導入されている。2023.12.28.に新設された公職選挙法第82条の8(ディープフェイク映像などを活用した選挙活動)は、選挙日前90日から選挙日までディープフェイク映像(人工知能技術を利用して生成した現実と区別しにくい仮想の音響、イメージ、映像を意味する)を制作・編集・配布・上映、または投稿する行為を禁止し(第1項)、 第1項の期間以外にディープフェイク映像などを製作・編集・配布・上映、または投稿する場合には、その情報が人工知能技術などを利用して作成した架空の情報であるという事実を明確に認識できるよう、中央選挙管理委員会の規定に従い、その内容をディープフェイク映像などに表示しなければならないと規定している(第2項)。ここでの「ディープフェイク映像など」とは、音響、イメージ、映像、これに準ずるものを意味し、テキストだけで構成されたものは含まれないと中央選挙管理委員会は説明している(法規運用基準3ページ)。最近、法制司法委員会を通過した人工知能基本法案の人工知能生成物表示制度は、このような公職選挙法の内容と実務経験を参考にしたものである。


4. 表示義務の例外及び限界

人工知能生成物表示制度は、すでに比較法的に先行法案があり、韓国でも人工知能基本法案が法制司法委員会を通過した状態であるため、いずれにしても法制化されるものと予想される。現在、韓国の人工知能基本法案は、表示の方法・例外に関する事項を大統領令に委任しているため、実際の表示制度の運営は関連施行令の内容に左右される。

人工知能生成物表示義務は、いくつかの制約要因がある。第一に、表示義務を実際に実施しなければならない人工知能産業界は、表示義務の実施に関して経済的・技術的な動機が不十分であるという点である。法的義務の設定と実施は、経済的動機のみから生まれるものではないので、社会的観点から法的義務が設定されれば、社会構成員は、経済的なメリット・デメリットに関係なく、それに従う義務がある。しかし、なんらかの法的義務が受範者の利害関係や行為状況を適切に反映できていない場合、法律の執行力は低下するしかない。人工知能生成物表示制度は一般的に必要とされるが、生成物の種類(ディープフェイク、テキスト)によって危険状況が異なるという点が考慮されるべきであり、利用者がすでに人工知能生成物であることを明確に認識できる具体的な状況では、表示義務の方法が調整される必要がある。また、表示義務の手段を強力に統制することは、技術中立性の原則に反し、最終的に人工知能技術の発展を阻害する恐れがある。人工知能産業界のニーズを考慮し、表示義務の執行力を高める方策を模索する必要がある。

第二に、人工知能生成物の表示を実施する過程で、利用者の創作・表現の自由が制約される可能性があることを十分に検討する必要がある。これはテキスト生成物でよく現れる。現在、テキスト生成物に対するウォーターマークの挿入方式は、① 特定の文法構造(受動態、能動態)や特定のフレーズを意図的に一定の割合で挿入して情報をエンコードする構文的ウォーターマーク ② 単語やフレーズの選択を特定の確率分布に応じて調節する統計的ウォーターマークなどによって識別することができるが、このようなウォーターマーク方式は、人工知能を活用する利用者の創作・表現内容をかなり制約する可能性がある。

第三に、ウォーターマークの技術的な限界を考慮しなければならない。例えば、テキスト生成物は、ウォーターマークを入れたとしても、そのテキストが変形したり、トークン単位に分解されて流通される場合、ウォーターマークが破損される可能性があり、最終的に人工知能生成物表示制度を維持することが難しい。人工知能生成物表示制度は、このような現実的・技術的制約条件があるという点が、今後の制度運営過程で十分に考慮されなければならない。


5. まとめ

人工知能生成物に対する識別表示の義務化は、透明性と利用者の保護、そして社会的信頼を高めるための重要な制度的装置として理解できる。ディープフェイク及びフェイクニュースなどの高リスク状況での誤用を防止し、人間の創作物に対する著作権保護に貢献できるという点で、その必要性は高い。しかし、人工知能産業界と利用者の利害関係や表現の自由と技術発展に及ぼす影響を考慮した慎重な設計が求められる。特に、生成物の種類と行為状況によるリスクを検討し、表示方法を規定する必要がある。

今後、人工知能生成物表示制度の具体的な実行過程においては、ウォーターマークの技術的限界と現実的な制約を反映し、効果的かつ持続可能な方法で運営されるようにしなければならない。これにより、人工知能技術は社会的信頼を得ながら発展することができるはずだ。


 
* * *


法務法人 麟(LIN) TMTチームは、企業の規制問題に関連して戦略的なOne-Stop Total solutionを提供しています。
上記内容に関して気になる点がありましたら、法務法人 麟(LIN)の TMTチーム(Tel. 02-3477-8695)までご連絡ください。

* この記事はKISO ジャーナル第57号に掲載されています。
https://journal.kiso.or.kr/?p=13030
関連業務分野
メンバー
メンバー 팝업 닫기 버튼 팝업 닫기 버튼
TOP 버튼 모바일 TOP 버튼