All photos by courtesy of SuperHeadz INa Babylon.

English
English

コラム column

2026年1月26日

著作権AI・ロボットプラットフォーム・プラットフォーマー

「機械学習パラダイス・日本におけるAIソフトロー
『AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード(仮称)(案)』」

弁護士  橋本阿友子 (骨董通り法律事務所 for the Arts)

1.経緯

知的財産戦略推進事務局は、令和7年12月26日より、『生成AIの適切な利活用等に向けた知的財産の保護及び透明性に関するプリンシプル・コード(仮称)(案)』について、パブリックコメントの募集を開始しました(案ではありますが、以下便宜上「プリシンプル・コード」と称します。パブコメ入力はこちら)。締切は2026年1月26日23時59分です。

言わずもがな、生成AIの爆発的普及は、社会変革をもたらす勢いです。政府としてはAIの開発・提供・利用を促進する立場ではあるものの、生成AIがもたらす恩恵の裏側では、 著作物等が無断で学習されることによる知的財産権侵害への懸念が問題となっていました。

プリシンプル・コード策定の背景には、2023年6月に公表された『知的財産推進計画2023』(知的財産戦略本部)において、知財戦略の重点10施策の一つとして、「急速に発展する生成AI時代における知財の在り方」が取り上げられていたことに遡ります。具体的には、AI技術の進歩の促進とクリエイターの権利保護等の観点に留意しつつ必要な方策等を検討すること等が掲げられ、その検討に当たっては、法律の整理のほか、技術による対応策や、契約による対応等を有機的に連携させながら、権利保護とAI技術の進歩を後押しするという方向性を見いだしていくことなどが提言されていました(AI時代の知的財産権検討会 中間とりまとめ 2024年5月 AI時代の知的財産権検討会(「中間とりまとめ」)参照)。また、2025年6月には、AIのイノベーションを促進しつつリスクに対応するための「人工知能関連技術の研究開発及び活用の推進に関する法律」(AI法)が公布、9月より全面的に施行されています。
生成AIの利用にあたっては、冒頭で紹介したクリエイター(権利者)側の「自分の作品(著作物)が無断で学習される」ことに対する懸念や、AI事業者の「安全にAIサービスを提供するための基準が分からない」不安が浮き彫りになっていました。このような流れの中で、進化の速度が異常に早いAIについてのルール化を急ぐ必要があり、ソフトローにて対応することが検討された、というわけです。

プリンシプル・コードは、AI法の趣旨を踏まえつつ、EUのAI Actにおける取組、コーポレートガバナンスの分野におけるスチュワードシップ・コード等の取組を参考に、AI事業者が行うべき透明性の確保、知的財産権保護のための措置の原則を定めたものです。その目的は、AI技術の進歩の促進と知的財産権の適切な保護の両立に向け、権利者や利用者にとって安全・安心な利用環境を確保することにあります(AI時代の知的財産権検討会 第10回議事録から引用)。

パブコメは間もなく締切となりますが、その後も議論は続くと思われます。詳細はコードそのものをご覧いただきたいですが、そのうち、知的財産権の保護に関しAI事業者が講じるべき対応について、主に著作権保護に焦点をあて、取り上げてみます。(プリンシプル・コードの全体像については、末尾にまとめておりますので、よろしければご参照ください)

2.プリンシプル・コードの3原則

プリンシプル・コードは、AI開発者及びAI提供者(総称して「AI事業者」)に適用される想定となっています¹。コードは、3つの主要原則に支えられています。
【原則1】概要開示:透明性確保と知財保護にかかる措置の開示
【原則2】権利者への開示:権利者に対する学習データの開示
【原則3】利用者への開示:利用者に対する学習データの開示

(1)【原則1】:知財保護にかかる措置の開示と著作権法30条の4

【原則1】の知財保護にかかる措置については、「知財保護原則の策定と責任体制の明確化」(毎年の見直し)、「データの活用が知的財産権を侵害しない」、「ペイウォールやrobots.txt等の尊重」、「学習したログの一定期間の保持」、「海賊版サイトからのクロール回避」、「権利侵害を防止する技術的措置(フィルタリング等)」、「コンテンツの出所・来歴を示す技術的措置(電子透かし、C2PA等)」、「知的財産権侵害と考えられる場合の利用者への周知」、「権利者からの申出に対応する適切な窓口の整備」についての対応状況の開示が求められます。具体例については、こちら

前提として、他人の著作物の無断利用は、原則として著作権侵害となります。もっとも、それには例外があり、例外規定に該当する利用であれば、著作権侵害にならないと定めています。この例外規定の一つが、AIにおける学習で毎度引き合いにだされる、著作権法30条の4(非享受利用)です。これは、ざっくり言えば、著作物を「人が作品を楽しむ」(著作物を享受する)目的ではなく、「情報として分析・処理する」目的であれば他人の著作物を許諾なく利用できる旨を定めた規定です。この規定によって、生成AIが他人の著作物を(無断で)学習する(生成AIに読み込ませる)ことが許されているわけです。日本が機械学習パラダイスといわれている所以です。

ただ、30条の4も、無制限に学習を許しているのではなく、「著作権者の利益を不当に害する」こととなる場合の著作物利用を禁止しています(但書)。具体的にどのような場合が「著作権者の利益を不当に害する」のかは議論がありますが、例えば、技術的保護措置が講じられており、かつ過去の実績等からウェブサイト掲載のデータを使ったデータベースの販売予定があることが推認されるようなサイトのデータを学習する場合などは、著作権者の市場を阻害し(データベースが売れなくなるため)、「著作権者の利益を不当に害する」と評価できると考えられています。

一方で、生成AIの利用により特定のクリエイターの「作風」が容易に模倣できるようになりましたが(新海誠さん風、ジブリ風などの画像生成がその例)、「作風」は「表現」ではなく「アイデア」にとどまり、著作権法では保護されません。つまり、「作風」の模倣は著作権侵害ではないと考えられています。生成AIの出現は、このような著作権法が保護する利益でないアイデア等が類似するにとどまるものが大量に生成されることにより、特定のクリエイター・著作物に対する需要が、AI生成物によって代替されてしまうような事態を生じさせました。しかし、この点、「文化審議会著作権分科会法制度小委員会「AIと著作権に関する考え方について」(「考え方」)では、当該生成物が学習元著作物の創作的表現と共通しない場合には、(アイデアは著作権法で保護されない=法律上著作権者が有する利益ではない)「著作権者の利益を不当に害する」ことにはならないと整理されており²、この整理を前提とすると、このような事態について著作権法上の対応は困難と考えられます³。また、生成AIの利用は人の「労力」なくして生成物をいとも簡単に創作できてしまう点で、クリエイターの仕事を奪うことが懸念されておりますが、「労力」も表現ではない以上、著作権法その他の知的財産法の下では保護されません。

このように、「労力」や「作風」(アイデア)それ自体を、著作権法等の知的財産法により保護することは限界があるのですが、「中間とりまとめ」では、「労力」や「作風」(アイデア)がおよそ保護され得ないわけではない、と指摘されています。すなわち、「中間とりまとめ」では、法律上の観点を超えて、技術による対応策や契約等による対価還元による対応策を有機的に連携させながら権利保護とAI技術の進歩を後押しするという方向性を見いだしていくことが目指されており、「法」による対応に限界がある部分は、「技術」による対応や「契約」による対応も活用しながら、「労力」や「作風」(アイデア)の適切な保護と活用のバランスを探っています。例えば、「労力をかけて制作した作品について、AI開発者やAI提供者とクリエイター等との間で、追加的な学習のための学習データ提供契約を締結し、権利者側が対価を得られるようにしたり、作風をAIに学習されたくない場合には「robots.txt」の記載による収集制限やID・パスワード等によるアクセス制限を行う」などの方法が、提示されていました。

これを受け、【原則1】では、現行法で必ずしもカバーされていないであろう「海賊版サイトからのクロールの回避」、「ペイウォールやrobots.txt等の尊重」、「権利侵害を防止する技術的措置(フィルタリング等)」、「コンテンツの出所・来歴を示す技術的措置」等を求めています。そのため、プリンシプル・コードは、著作権法30条の4(非享受利用)を補完し、「特定のクリエイターの利益を狙い撃ちにするような学習」や「海賊版サイトからの意図的な学習」を抑制する姿勢を示しているものと評価できます。

(2)【原則2】・【原則3】:AI事業者による情報開示と依拠性

【原則2】は権利者が、【原則3】は利用者が、それぞれ、生成物の元となった学習データに関する情報を確認できるように、AI事業者に情報の開示を求めるものです。

著作権侵害が成立するには、既存の著作物とAI生成物が同一又は類似しており、かつ、「依拠性(既存の著作物を元に創作したこと)」が必要です(偶然、同一又は類似の著作物が作成された場合には、著作権侵害は成立しません)。しかし、学習データが公開されていない生成AIの利用においては、権利者側が「自分の作品が学習された」と証明することが困難です。この点、「文化審議会著作権分科会法制度小委員会「AIと著作権に関する考え方について」(「考え方」)は、「AI利用者が既存の著作物(その表現内容)を認識していなかったが、当該生成AIの開発・学習段階で当該著作物を学習していた場合については、客観的に当該著作物へのアクセスがあったと認められることから、当該生成AIを利用し、当該著作物に類似した生成物が生成された場合は、通常、依拠性があったと推認され、AI利用者による著作権侵害になりうると考えられる」との考えを示しています(34頁)。この考えに従えば、「当該生成AIの開発・学習段階で当該著作物を学習していた」との事実の有無が、依拠性の判断には重要なポイントとなると考えられます。

そこで、【原則2】では、自らの権利が侵害されたとして、訴訟等の法的措置を検討している権利者が、AI事業者に対し学習データの開示を請求できることを定めています。
プリシンプル・コードでは、【原則2】の典型例として、あるクリエイターが、自身のウェブサイトに掲載した作品と同一又は類似のAI生成物を発見したので、法的措置を検討するにあたり、AI事業者に対して「自分のサイトのURLが学習データに含まれているか」を開示請求する例が挙げられています。開示を受けた権利者において、自分の作品が生成AIで利用されたことがわかれば、依拠性を立証しやすくなり、生成物の著作権侵害等の主張が認められやすくなるといえそうです。他方で、こういった訴訟の証拠集めは、既に証拠保全や民事訴訟法上の手続きの中で、本人・代理人が可能な範囲で尽力するところ、生成AI事業者に負担を課してまで、生成AIの事案に限って権利者にとって有利な制度設計を行っているところには、個人的にやや違和感をおぼえています (検討会にて指摘されている「生成AIに局所最適な形を追求するとバランスを欠く」という指摘がここにもあてはまらないでしょうか。)。

一方、【原則3】は、利用者が、生成物が他人の権利を侵害していないかを確認するための制度です。その典型例として、ある利用者が画像生成AIで作品を生成したところ、既存の作品と同一又は類似であることに気づいたので、AI事業者に対して「既存の作品と同一又は類似作品が掲載されたサイトのURLが学習データに含まれているか」を開示請求する例が挙げられています。当該URLが学習データに含まれていなければ、依拠性は推認されなくなり、利用者としては安心して利用しやすい、ということになろうかと思います。ただし、この請求で得た回答は、訴訟等の法的措置に用いないことを誓約することが求められます。これは、仮に回答した内容がそのまま裁判の証拠として利用されるとすれば、AI事業者は法的リスクを恐れて回答を拒否する可能性があり、誓約があることで、AI事業者が迅速に回答をしやすいため、と考えられます。

3.ソフトローとしてのプリシンプル・コード

このように、プリンシプル・コードは、現行法上は求められていない対応をAI事業者に求めています。一部では、これがAI事業者にとって、過度な負担(人的・経済的コスト)がとならないかが懸念されています。

この点については、プリンシプル・コードには法的拘束力はなく、全てを準拠する必要はない、との整理が可能です。負担になるなら守らなければいい、というわけです。ところが、日本の企業は、法的拘束力がないルールでも、遵守する傾向にあります(コロナ禍における自粛要請が記憶に新しいと思います)。なぜなら、こういった政府ルールがあることで、投資家や取引先(特に大企業)からのコンプライアンス要求の内容とされやすくなります。あるいは政府からの調達を受ける要件となる可能性も否定できません。AIベンチャーにとっては上場審査において遵守を期待されることもあるかもしれません。そうすると、日本の企業は守らざるを得なくなるという状況が生まれてしまいます。

他方で、経済合理性を重視する海外のAI事業者などは、法的拘束力がない=守らなくても制裁がないルールを守らない傾向にあるように思います(この点について、福井委員も、「昨年7月に発表されたEUのAI法に基づく生成AIのコード・オブ・プラクティスでは、項目によっては世界売上の3%といった巨額の罰金、域外適用という制裁があり、例えばOpenAIやGoogleのような二十数社が受諾を宣言しているが、MetaとかApple、中国勢などは、受諾をしていないと聞いている」旨言及しており、法的拘束力のないルールの実効性の図り方を指摘しています)。また、プリンシプル・コードはコンプライ・オア・エクスプレインの方法をとっており、「自らの個別事情に照らして実施することが適切でないと考える原則があれば、それを「実施しない理由」を十分に説明することにより、一部の原則を実施しないことも想定」しています。エクスプレインすればコンプライしなくとも、コードに従ったことになりますので、コンプライアンスを重視する海外勢はこの方法を選択する可能性も高いと思います。

プリンシプル・コードの内容からは、原則を遵守する場合のAI事業者の負担は少なくないと予想されます。そのため、守る・守らないの選択により企業の負担が大きく異なり、不公平感が出ないか、が懸念されるというわけです(特に日本の投資家から資金調達をする必要に迫られているベンチャーなどは、コンプライを選択する傾向が強くなるかもしれません)。また、アメリカ等のメガプラットフォームへの遵守を促さないことには、国が国際競争力を減縮させるのではないかという恐れもあります。機械学習パラダイスと称される日本において、本末転倒な結果にならないよう、海外の事業者との不公平がないような制度設計は必須だと思います。

4 対応策?

では、どうすべきか。最初にさかのぼってみると、クリエイター(権利者)側の「自分の作品(著作物)が無断で学習される」ことに対する懸念や、AI事業者の「安全にAIサービスを提供するための基準が分からない」といった懸念の両方のバランスをとる、というのが理想的な制度設計だというのは、所与の前提かと思います。

権利者側の「自分の作品(著作物)が無断で学習される」という不安については、シンプルに「自分の作品が勝手に使われている」状態の発生をなくすことが、解決方法です。つまり、オプトアウトを整備する方法が考えられます。プリンシプル・コード【原則1】で、開発者側に「何を学習したか」の開示を求めることで、権利者が学習を拒否する選択肢を持ちやすくなっていますが、これはあくまでAI事業者がコードに従った場合の話です。遵守しない選択肢があり得る制度設計は不公平感を生んだり国際競争力を衰退させるなどのAI事業者にとっての問題は上記で示したとおりですが、権利者側にとっても、ルールの内容には満足だが守られるかわからないルールなのであれば、決して安心できません。

そのため、より実効的なものとするには、ペイウオールやrobots.txt(ロボッツ・テキスト)の遵守、海賊版からの学習を取り締まる、といったことを、著作権法令の改正や解釈指針でやってしまう、という方法が考えられます。この「robots.txt」を回避するクローラーは、30条の4、47条の5条の適用を受けないといった整理(「robots.txt」で拒否されているにもかかわらず収集を強行する行為は「著作権者の利益を不当に害する」(著作権法30条の4但書)に該当するとの解釈を示すなどを含む)や、権利者が「robots.txt」などで学習を拒否するものを学習しないことを義務化させ、それに違反したAI事業者には公表や課徴金といった制裁を加える、という方法も考えられます(第8回検討会における奥邨委員、田村委員、福井委員による指摘参照)。法制化あるいは既存の法の解釈指針を出す方が、「安全にAIサービスを提供するための基準が分からない」といった懸念にも対応できると思います。

実効性を重視すれば、上記のとおり遵守義務(と制裁)を付与する方法が適切ですが、他方で、日々進化を遂げる生成AIから権利者を保護する、あるいは事業者側が開発・サービス提供するにあたり安心できる基準を提示することは急務となっているのも事実です。まず基準を提示することを優先すれば、ソフトロー的な対応を行うことは有益かつ重要だと思います。もしソフトローで対応するならば、できる限り上述の不公平が生じないよう(あるいは不公平感を減らすべく)、AI事業者にとって負担の少ない、つまり遵守しやすいルールの策定が望まれます。例えばですが、既にプリンシプル・コードで「知的財産権保護のための措置」として紹介されている、「ペイウォールの遵守、robots.txtに従うクローラを採用・上記を含むポリシーを自社HP上で公開」という措置は有益かつ比較的遵守しやすいのでルール化し、他の知財保護措置は緩和する(どの措置の負担が大きいかなどはパブコメの結果も踏まえつつ検討)、法的措置準備のための情報開示は既存の制度の範囲内とする(例えば、必ずしも回答義務のない弁護士法23条照会やその他の証拠保全手続に応じるべきとする)、などの方法を模索するのはあり得るように思います。

現時点でのプリンシプル・コードは、あくまで案ですので、今後、パブコメの内容をみて、議論が深まっていくことを期待します。既にある問題点や想定し得る懸念を議論の上納得できる形で整理した上で、事業者側・権利者側のそれぞれのメリット・デメリットのバランスをはかった現実的なルールが望まれます。


プリンシプル・コード:全体像(ざっくり)

 〇目的:権利者と利用者のバランス
プリシンプル・コードでは、「生成AI技術の進歩の促進と知的財産権の適切な保護の両立」を掲げ、EUのAI Actやコーポレートガバナンスの先進事例を参考に、権利者と利用者の双方にとって安全・安心な利用環境を確保することを目的としています。

 〇手法:コンプライ・オア・エクスプレイン
コンプライ・オア・エクスプレインとは、原則を実施するか、実施しないなら理由を説明することを求める手法で、AI事業者は、実施が適切ではないと判断した原則があれば、実施しない理由を説明することで、実施しない選択肢が与えられています。「オア」とはあるものの、プリンシプル・コードでは、原則を実施する場合でも、具体的な取り組みを積極的に説明することを有益であると評価しています。

 〇受入れ状況の可視化:ウェブサイト上での公表
プリンシプル・コードは、AI事業者に、下記の実施を期待しています。
①自社サイト等でのプリンシプル・コードの受け入れ表明
②具体的な実施事項(または実施しない理由)の公表
③届出(内閣府知的財産戦略推進事務局所定の様式による)
④見直し・更新 (更新した旨の公表)

 〇3つの原則
プリンシプル・コードを支える3つの原則は下記のとおりです。
原則1:事前の概要開示
①透明性確保のための措置:下記の開示
・使用モデル関係(名称、バージョン、来歴、設計仕様、利用規定、トレーニングプロセスの内容
・学習データ関係(データの種類・利用状況、クローラの目的・データ収集期間等)
・アカウンタビリティ関係(トレーサビリティの状況、責任者の明示等)
②知財保護に関する措置を、事業者が自らウェブサイトで公開する。 
原則2:権利者のための開示請求
・法的措置を準備する権利者が、学習データに関する情報を請求できる。
原則3:利用者のための開示請求
・AI利用者が、生成物の元となった学習データに関する情報を確認できる。

 ○原則に対する例外
開発・学習段階(事前・事後学習)を行う生成AI事業者のうちオープンソースソフトウェアを用いて事業の全部または一部を実施している生成AI事業者であって、オープンソースソフトウェアを用いていることにより原則1に係る概要開示対象事項の一部に開示及び説明のいずれも困難な事項が存在する者並びに原則2及び3に係る開示要求可能事項の開示に困難な事項が存在する者は、オープンソースソフトウェアを用いている事実及び当該オープンソースソフトウェアのライセンスの詳細等を明らかにすることで、当該事項の開示に代えることができる

1 適用範囲に関しては、「一の法人または個人が保有するデータを用いて、その者のみが使用するAIシステムを提供する者は、ここで言うAI開発者には含まれない。また、同様の形で、こういったような者に関しては提供者には含まれない。ただし、日本国内に本店または主たる事務所を有しないAI事業者であっても、AIシステムやAIサービスが日本に向け提供されている場合には、この文書の適用を受ける」と説明されています。

2 「考え方」の整理に関しては、著作権法上保護されないアイデアである作風が大量生産されるような学習のための複製については、30条の4但書の「権利者の利益を不当に害する」わけではないと直ちに導けるかについての意見が複数委員(島並委員・中川委員・福井委員)から出されており、事務局が採用した考え方については、議論があるところです。

3もっとも、「中間とりまとめ」において、「30条の4に定める「享受……を目的としない場合」との文言から明らかなとおり、享受を目的とする場合には同条の適用がないところ、他人の著作物に含まれる作風を意図的に出力させる目的でAIに学習させる場合には、それが「作風」(アイデア)にとどまらず、学習データの著作物の創作的表現を直接感得できる生成物を出力することが目的であると評価される場合は、享受目的が併存するものとして、許諾が必要(30条の4は適用されない)な場合があり得る」と整理されています。

以上

弁護士 橋本阿友子のコラム一覧

※本サイト上の文章は、すべて一般的な情報提供のために掲載するものであり、
法的若しくは専門的なアドバイスを目的とするものではありません。
※文章内容には適宜訂正や追加がおこなわれることがあります。
ページ上へ