(AI作成)内閣法制局ご説明資料に基づくAI推進法の解説

◯本ブログ記事は,①人工知能関連技術の研究開発及び活用の推進に関する法律案(仮称)内閣法制局ご説明資料(令和7年1月の内閣府科学技術・イノベーション推進事務局の文書),及び②人工知能関連技術の研究開発及び活用の推進に関する法律案(仮称)ご指摘事項とその対応について(令和7年1月20日付の内閣府科学技術・イノベーション推進事務局の文書)に基づき,AIで作成したものです。
    なお,人工知能関連技術の研究開発及び活用の推進に関する法律(令和7年6月4日法律第53号)(以下「AI法」といいます。)につき,国会での修正はありませんでした(衆議院HPの「閣法 第217回国会 29 人工知能関連技術の研究開発及び活用の推進に関する法律案」参照)。

目次

はじめに:AI推進法の施行と弁護士実務

第1 本法案の全体像と法的位置づけ

1.AI技術の特性と新法の必要性

2.法律の目的(第1条関係)

第2 最重要概念:「人工知能関連技術」の定義(第2条関係)

1.条文(案)の構造

2.定義のポイントと実務上の含意

第3 法案の核心:「基本理念」(第3条関係)の法的含意

1.基本理念の全体像

2.第4項:「適正な実施」の確保(リスク対応)

3.第5項:国際協調と「主導的な役割」

第4 各主体の「責務」規定(第4条~第8条関係)

1.「活用事業者」の定義(第7条関係)

2.「活用事業者」の協力義務(第7条関係)

3.「研究開発機関」と「大学」への配慮(第6条関係)

第5 基本的施策(第2章)における注目点

1.第13条:ソフトロー(指針・規範)の重要性

2.第16条:国の調査権限と行政指導

第6 推進体制:人工知能戦略本部(第4章関係)

1.設置の趣旨

2.本部の権限(第25条関係)

第7 法案審査の過程で見るべきその他の修正点

1.表現の精緻化:「ための」「に関する」「に対する」

2.「国民の責務」(第8条)の努力義務化

3.附則第2条(検討規定)の含意

第8 まとめと弁護士実務への示唆


内閣法制局ご説明資料に基づくAI推進法の解説

はじめに:AI推進法の施行と弁護士実務

弁護士の先生方におかれましては,日々の業務に邁進されていることと拝察いたします。

さて,ご承知のとおり,AI(人工知能)技術,特に生成AIの急速な発展は,我々法務実務家に対し,著作権,個人情報保護,契約責任,労働,さらには安全保障といった多様な分野で,これまでにない新たな法的課題を突きつけています。

こうした状況下で,令和7年6月4日に公布され,同年9月1日に施行された「人工知能関連技術の研究開発及び活用の推進に関する法律」(以下「AI推進法」)は,日本政府がこれらの課題にどう向き合い,AIの「振興」と「規制」のバランスをどのように取ろうとしているかを示す,極めて重要な法律です。

本稿は,法案立案段階(令和7年1月)の内閣府内部資料である「人工知能関連技術の研究開発及び活用の推進に関する法律案(仮称)ご指摘事項とその対応について」及び「同 内閣法制局御説明資料」(以下,併せて「本件文書」)を全面的に参照し,「弁護士でもあるプロのライター」の立場から,弁護士の先生方が実務上関心を持たれるであろう法的な論点や,条文の背後にあるロジックを解説するものです。本法は理念法でありながら,将来の具体的な規制や企業のコンプライアンス体制のあり方に直結する,重要な視点を多数含んでいます。


第1 本法案の全体像と法的位置づけ

1.AI技術の特性と新法の必要性

本件文書は,AI推進法がなぜ「新法」として必要とされたのか,その前提となるAI技術の特性を詳細に説明しています。

(1) 本件文書が示すAI技術の特性

本件文書(ご説明資料)は,AI技術の特性を以下の4点に整理しています。

  • ア.創造性・自律性: 人の認知,推論及び判断に係る能力を代替し,創造的なアウトプットを自律的に生み出す。

  • イ.汎用性・基盤性: あらゆる分野での活用が想定され,経済社会の発展の基盤的な技術となる可能性。

  • ウ.デュアルユース(DU)技術: 民生目的のほか国防目的にも転用可能であり,国家安全保障上重要な技術である。

  • エ.急速な発達と社会実装: 基礎研究から社会実装までの期間が短く,各プロセスが並行して進む(コンカレントエンジニアリング)。

(2) 既存法(科学技術・イノベーション基本法デジタル社会形成基本法)との関係

弁護士の先生方であれば,まず「なぜ既存の法律では対応できないのか」という疑問を持たれるかと存じます。本件文書(ご説明資料)によれば,技術振興に関しては「科学技術・イノベーション基本法」が,技術の利活用に関しては「デジタル社会形成基本法」が既に存在します。

(3) 新法の必要性

しかし,本件文書は,これらの法律では不十分である理由を明確に説明しています。

  • ア.「研究開発」から「活用」までの一体的推進の必要性
    上記(1)エの特性(コンカレントエンジニアリング)から,基礎研究から社会実装までを一体的に見通す施策が必要です。しかし,科学技術・イノベーション基本法は「研究開発の推進のみを対象」とし,デジタル社会形成基本法は「情報通信技術を利用した情報の活用のみを対象」としているため,このプロセス全体を一体的にカバーできませんでした。
  • イ.国家安全保障の観点の欠如
    上記(1)ウの特性(デュアルユース)にもかかわらず,既存の両法には「国家安全保障の観点からの政策理念・施策に関する規定がない」ため,安全保障上重要な技術としてAIを位置づける新たな枠組みが必要とされました。

2.法律の目的(第1条関係)

AI推進法第1条(目的)は,こうした背景を踏まえ,既存の法律による施策と「相まって」,AIの研究開発及び活用の推進を「総合的かつ計画的」に図ることとしています。これは,AI政策に関する最上位の基本法(理念法)としての性格を示すものです。


第2 最重要概念:「人工知能関連技術」の定義(第2条関係)

本法の適用範囲を画する第2条の定義は,弁護士の先生方にとって最も精緻な分析が必要な部分です。

1.条文(案)の構造

本件文書によれば,第2条の定義(案)は以下のとおりです。

「この法律において,「人工知能関連技術」とは,人工的な方法により人間の認知,推論及び判断に係る知的な能力を代替する機能を実現するために必要な技術並びに入力された情報を当該技術を利用して処理し,その結果を出力する機能を実現するための情報処理システムに関する技術をいう。」

この定義は,二つの部分から構成されています。

(1) 第1部:中核機能(「脳」)

「人工的な方法により人間の認知,推論及び判断に係る知的な能力を代替する機能を実現するために必要な技術」

これはAIの「中核」機能(機械学習,深層学習,自然言語処理等)を指します。

(2) 第2部:出力・周辺機能(「手足」「口」)

「入力された情報を当該技術を利用して処理し,その結果を出力する機能を実現するための情報処理システムに関する技術」

これはAIの中核機能を利用し,結果を「出力」するシステムに関する技術を指します。

2.定義のポイントと実務上の含意

(1) 「代替」と「推論」の採用

本件文書(ご説明資料)は,他の法律(道路運送車両法やスマート農業技術の法律)の例を引きつつ,「人が行うことのできる知的な能力を示した上で,これを代替する機能として定義する」と説明しています。

注目すべきは,自動車の運転などとは異なり,「予測」ではなく**「推論」**という言葉を採用した点です。これは,単なるデータからの未来予測に留まらず,より複雑な論理的帰結を導き出す能力(まさに生成AIが得意とする能力)を明確に射程に入れていることを示唆します。

(2) 「出力する機能」の重要性

法案審査の過程では,「『出力する機能』を定義の要素として加える必要があるか」との指摘がありました。

これに対し,本件文書(ご指摘対応文書)は,この「出力する機能」に係るAI特有の技術として,以下の2点を挙げ,定義に含める必要性を明確に回答しています。

  • ア.電子透かし(ウォーターマーク): AIが生成したことを示す識別情報をコンテンツに埋め込む技術。

  • イ.ガードレール: 不適切な出力を抑止する技術。

立案者は,これら(電子透かし,ガードレール)を「本法案の目的の一つである人工知能関連技術の適正な利用のためには不可欠な技術である」と断言しています。

(3) 弁護士実務上の含意

この定義により,AIモデル本体(第1部)だけでなく,生成物の信頼性や安全性を確保するための周辺技術(電子透かし,ガードレール),さらには本件文書(ご説明資料)が例示する「データの学習を高速化するための半導体技術」までもが,本法の「人工知能関連技術」に含まれることになります。

これは,将来的にAIの「適正な利用」に関する施策(例えば,電子透かしの実装義務化や,不適切な出力を防ぐガードレールの設置義務など)が導入される際,その法的根拠が本条の定義に求められることを意味します。偽情報(ディープフェイク)による名誉毀損や,AI生成物の著作権侵害といった法的紛争において,「出力」を制御する技術の有無や実効性が,開発者・提供者の法的責任(注意義務)を判断する上で重要な要素となる可能性を示唆しています。


第3 法案の核心:「基本理念」(第3条関係)の法的含意

1.基本理念の全体像

第3条の基本理念は,本法が目指す価値の序列とバランスを示すものです。第2項(経済社会の発展の基盤・安全保障),第3項(基礎研究から活用までの一体的推進)で「振興」を掲げる一方,第4項と第5項で「リスク対応」と「国際協調」を定めています。特に弁護士実務と関連が深いのは,第4項と第5項です。

2.第4項:「適正な実施」の確保(リスク対応)

(1) 条文(案)の確認

「人工知能関連技術の研究開発及び活用は,不正な目的又は不適切な方法で行われた場合には,犯罪への利用,個人情報の漏えい,著作権の侵害その他の国民生活の平穏及び国民の権利利益が害される事態を助長するおそれがあることに鑑み,その適正な実施を図るため,人工知能関連技術の研究開発及び活用の過程の透明性の確保その他の必要な施策が講じられなければならない。」

(2) 「助長するおそれ」への修正

本件文書(ご指摘対応文書)によれば,当初案の「助長させるおそれ」から,「助長するおそれ」に修正されています。これは用例の多寡に基づく修正ですが,「させる」という使役形を避けたことで,AIの動作主体性をやや後退させ,AIが「用いられる」ことによるリスクを客観的に記述する表現となっています。

(3) リスクの具体例

本件文書(ご説明資料,ご指摘対応文書)は,懸念されるリスクの具体例として,弁護士が日常的に遭遇し得る事案を挙げています。

  • ア.不正な目的による研究開発: マルウェア生成を容易にするためのコンピュータウイルスの作成方法等の学習。

  • イ.不適切な方法による研究開発: 海賊版サイトと知りながら学習対象から除外せず,既存の著作物に類似したコンテンツの出力を防止するための措置を怠る(著作権の侵害)。

  • ウ.不正な目的による活用: 詐欺に用いる目的で他人の合成音声を出力させる。

  • エ.不適切な方法による活用: 企業の従業員が,入力された情報の共有先を把握しないまま,顧客の個人情報や会社の営業秘密を入力する(個人情報等の漏えい)。

これらは,AI利用に関する企業のコンプライアンス体制や利用ガイドラインの策定において,最低限考慮すべきリスクシナリオとなります。

(4) 「透明性の確保」の具体例

本件文書(ご説明資料)は,「透明性の確保その他の必要な施策」の具体例として,「電子透かし」の導入,「個人情報の学習を防止する措置」,「データ収集の手法について関係者への情報提供の実施」などを例示しています。弁護士としては,クライアント(特に開発事業者)に対し,これらの透明性確保措置が,将来的な法的リスクを低減する上で重要であることを助言する必要があります。

3.第5項:国際協調と「主導的な役割」

(1) 「努めるものとする」への修正

本件文書(ご指摘対応文書)によれば,この条項(案)も,当初案の「主導的な役割を果たすものとする」から,「主導的な役割を果たすよう努めるものとする」へと修正されています。

(2) 修正のロジック

この修正理由が重要です。本件文書によれば,「『主導的』か否かは他国との関係で相対的に決まるものであり,我が国の意思のみで主導的な役割を果たすことは困難ではないか」という法制局(想定)からの指摘を受け,「方針に沿って絶えず努めていくという意思を表すため」に修正したとあります。

これは,G7広島AIプロセス等に見られる国際的なルール形成において,日本がリーダーシップを発揮し続けるという政策的意志を示すと同時に,法文としての現実的な着地点を探った結果と言えます。


第4 各主体の「責務」規定(第4条~第8条関係)

本法は,国(第4条),地方公共団体(第5条),研究開発機関(第6条),活用事業者(第7条),国民(第8条)に至るまで,各主体に「責務」を課しています。特に弁護士の先生方に注目していただきたいのは,民間企業に相当する「活用事業者」の責務です。

1.「活用事業者」の定義(第7条関係)

まず,責務の主体となる「活用事業者」の定義(案)が非常に広範です。

「人工知能関連技術を活用した製品又はサービスの開発又は提供をしようとする者その他の人工知能関連技術を事業活動において活用しようとする者(以下「活用事業者」という。)」

本件文書(ご説明資料)によれば,これはAIモデルの開発者やAIサービス提供者だけでなく,業務効率化のために社内で生成AIを利用する一般企業(ユーザー企業)までも広く「活用事業者」として含み得るものとなっています。クライアントがAIを少しでも事業で使えば,本条の対象となる可能性がある点に留意が必要です。

2.「活用事業者」の協力義務(第7条関係)

(1) 「しなければならない」という法的義務

活用事業者の責務は二つあります。一つは「積極的な人工知能関連技術の活用」(努力義務)ですが,法的に重要なのは二つ目の「協力義務」です。

「(活用事業者は)第四条の規定に基づき国が実施する施策及び第五条の規定に基づき地方公共団体が実施する施策に協力しなければならない。」

注目すべきは,他の主体の協力義務(第6条の研究開発機関や第8条の国民)が「協力するよう努めるものとする」という努力義務であるのに対し,活用事業者のみが「しなければならない」という法的義務とされている点です。

(2) 義務の根拠

なぜ活用事業者のみが重い義務を負うのか。本件文書(ご指摘対応文書)は,この点について極めて重要な見解(立案担当者の見解)を示しています。

「活用事業者は,かかるおそれ(国民の権利利益が害される事態を助長するおそれ)が生じ得る人工知能関連技術の活用により便益の増加その他の利益を期待するという立場にあることを踏まえ,国や地方公共団体の実施する(略)適正な実施を図るための施策に協力する責任があり得ることを背景にした規定である。」

これは,「AIを活用して利益を得る者は,AIがもたらすリスクへの対応(適正な実施)についても相応の責任を負うべき」という,一種の「応益負担」的な思想を法的義務の根拠としていることを示します。

(3) 弁護士実務上の含意

これは理念法の条文とはいえ,明確な法的義務(作為義務)です。将来,国(や新設される人工知能戦略本部)が,活用事業者に対してAIのリスクに関する情報提供,インシデント報告,実態調査への協力などを求めた場合,本条を根拠に「協力しなければならない」ことになります。

弁護士としては,クライアント(活用事業者)に対し,本法施行により,国や地方公共団体のAI関連施策(特にリスク管理に関する調査や指導)に対して法的な協力義務を負うことになった点を,コンプライアンス上の重要事項として助言する必要があります。

3.「研究開発機関」と「大学」への配慮(第6条関係)

(1) 努力義務

活用事業者とは対照的に,「研究開発機関」(大学や研究開発法人など)の施策への協力は「協力するよう努めるものとする」という努力義務に留められています。

(2) 第6条第2項の配慮規定

さらに,本件文書(ご指摘対応文書)によれば,法案審査の過程で,大学に関する特別な配慮規定(第6条第2項)が追加されています。

「国及び地方公共団体は,(略)施策で大学に係るものを策定し,及び実施するに当たっては,(略)研究者の自主性の尊重その他の大学における研究の特性に配慮しなければならない。」

(3) 趣旨

これは,国の施策が「大学の自治」や「研究の自由」を過度に制約してはならないという憲法上の要請(学問の自由)を反映したものです。大学や研究機関をクライアントに持つ弁護士にとっては,国の施策(例えば研究助成の要件など)がこの配慮義務に反していないかを検討する際の根拠条文となり得ます。


第5 基本的施策(第2章)における注目点

第2章では,国が講ずべき具体的施策が列挙されています。弁護士実務に関連が深いのは,リスク対応に関する第13条と第16条です。

1.第13条:ソフトロー(指針・規範)の重要性

「(適正性の確保)第十三条 国は,人工知知能関連技術の研究開発及び活用の適正な実施を図るため,国際的な規範の趣旨に即した指針の整備その他の必要な施策を講ずるものとする。」

(1) 「国際的な規範」の解釈

ここでいう「規範」が何を指すのか。本件文書(ご指摘対応文書)は,「G7広島AIプロセス」の国際指針や国際行動規範,さらには「知的財産保護などのAIに特化したものではないが関係の深い国際条約」も含むと説明しています。

また,デジタル社会形成基本法の逐条解説を引用し,OECDのAI原則やDFFT関連の宣言など,「法的拘束力を有しない」ものも含まれるとしています。

(2) 「指針の整備」

本件文書(ご説明資料)は,国内の「指針」として,既存の「AI事業者ガイドライン」などを例示しています。

(3) 弁護士実務上の含意

本条は,今後のAIガバナンスが,直ちにハードロー(法律による強行的な規制)によって行われるのではなく,まずは法的拘束力のない国際的な規範(ソフトロー)を国内の「指針(ガイドライン)」に落とし込む形で進められることを示唆しています。

弁護士としては,クライアントに対し,これらの「指針」は法律そのものではなくとも,第13条に基づき国の施策として整備されるものであり,事実上のコンプライアンス基準(デファクトスタンダード)となる可能性が高いこと,また,将来的な民事訴訟において事業者の「注意義務」のレベルを判断する際の基準とされる可能性があることを助言する必要があります。

2.第16条:国の調査権限と行政指導

「(調査研究等)第十六条 国は,(略)不正な目的又は不適切な方法による人工知能関連技術の研究開発又は活用に伴って国民の権利利益の侵害が生じた事案の分析及びそれに基づく対策の検討(略)を行い,その結果に基づいて,研究開発機関,活用事業者その他の者に対する指導,助言,情報の提供その他の必要な措置を講ずるものとする。」

(1) 権限の内容

本条は,国にAIによる権利侵害事例の調査・分析権限と,それに基づく行政指導等の権限を付与するものです。本件文書(ご説明資料)は,国が「当該事案の調査の実施とその調査結果に基づく対策の検討を想定している」と解説しています。

(2) 法的性質と実務への影響

「指導,助言」は,行政手続法上の行政指導にあたる可能性があり,本条はその根拠規定となります。

前述の第7条(活用事業者の協力「義務」)と,この第16条(国の「指導,助言」権限)を組み合わせることで,国(後述の人工知能戦略本部)は,民間企業に対し,AIの適正利用に関して事実上かなり強力な監督権限を持つことになります。


第6 推進体制:人工知能戦略本部(第4章関係)

1.設置の趣旨

本法は,AI政策の司令塔として,内閣に「人工知能戦略本部」(本部長:内閣総理大臣)を設置します。本件文書(ご説明資料)は,既存のCSTI(総合科学技術・イノベーション会議)やデジタル社会推進会議では「施策の全体をカバーすることはできない」とし,AIに特化した強力な司令塔を法律で設置する必要性を説いています。

2.本部の権限(第25条関係)

弁護士として注目すべきは,本部の権限(第25条)です。

(1) 協力要求・依頼権限

  • ア.第1項: 関係行政機関,地方公共団体,独立行政法人等の公的機関の長に対し,資料の提出,意見の表明,説明等の「協力を求めることができる」。

  • イ.第2項: 第1項に規定する者「以外の者」(=民間事業者や有識者等)に対しても,必要な協力を依頼することができる」。

(2) 実務上の解釈

第1項の「求めることができる」は公的機関に対する強力な権限ですが,第2項の民間に対する「依頼」は,一見すると任意協力のお願いに読めます。

しかし,これを前述の第7条(活用事業者の協力「義務」)と合わせ読むと,本部が活用事業者に対して第25条第2項に基づき協力「依頼」を行った場合,活用事業者側は第7条に基づき「協力しなければならない」という関係になると解釈できる余地があります。これは,本部の調査権限が民間に対しても実質的に及ぶ可能性を示すものであり,今後の実務運用を注視する必要があります。


第7 法案審査の過程で見るべきその他の修正点

本件文書(特に「ご指摘対応文書」)には,法案審査の過程における修正の経緯が詳細に記されており,これらも法解釈の参考となります。

1.表現の精緻化:「ための」「に関する」「に対する」

本件文書(ご指摘対応文書)の冒頭では,法案全体で混在していた助詞の使い分けについて,詳細な整理が行われています。「施策」に接続する場合は「に関する」に統一し,「理解と関心」に接続する場合は「に対する」を用いるなど,法文の緻密な検討が伺えます。

2.「国民の責務」(第8条)の努力義務化

当初案では「努めなければならない」とされていた可能性が示唆されていますが,本件文書(ご指摘対応文書)によれば,「国民は規制対象ではないため,強すぎるのではないか」という指摘を受け,「努めるものとする」と修正されています。これは,活用事業者(第7条)が「しなければならない」とされた点と鮮やかな対比をなしています。

3.附則第2条(検討規定)の含意

附則第2条(案)は,施行後の状況変化を踏まえた見直しを定める規定ですが,その中で「法制上の措置の在り方を含め,必要な検討を加え」るとしています。

本件文書(ご説明資料)は,この趣旨を「現在は顕在化していない人工知能関連技術の研究開発及び活用に係るリスクが,法律の施行後顕在化した場合」には,必要な措置を講ずること,と説明しています。

これは,本法が当面は理念法・振興法としての性格が強いものの,将来的にAIのリスクが顕在化・深刻化した場合には,より強力な規制(新たな立法措置=ハードロー)を導入する可能性を政府が明確に留保していることを示します。


第8 まとめと弁護士実務への示唆

本件文書から読み解けるAI推進法は,AIの振興(第3条第2項・第3項)とリスク対応(第3条第4項)の両立を目指す,国のAI戦略の根幹をなす法律です。

弁護士の先生方におかれましては,本法が施行された今,クライアント(特にAIを利用する企業)へのアドバイスにおいて,以下の諸点を考慮いただく必要があるかと存じます。

  1. 「活用事業者」の範囲と「協力義務」の周知
    クライアントがAIを事業で利用している場合,その大小にかかわらず「活用事業者」(第7条)に該当し,国の施策(特にリスク調査や適正利用に関する指導)に対し,法律上の「協力義務」を負うことになった点を周知徹底する必要があります。
  2. ソフトロー(指針・規範)の重要性
    国の施策は「国際的な規範の趣旨に即した指針の整備」(第13条)を通じて具体化されます。G7広島AIプロセスやAI事業者ガイドラインといったソフトローが,事実上のコンプライアンス基準(注意義務のメルクマール)となるため,これらの動向を継続的に注視し,クライアントの社内規程やガバナンス体制に反映させる法的助言が求められます。
  3. 国の監督権限とインシデント対応
    国(人工知能戦略本部)は,「権利利益の侵害事案の分析」(第16条)を行い,事業者への「指導,助言」(第16条)を行う権限を持ちます。AI利用に関するインシデント(情報漏洩,著作権侵害,差別的出力など)が発生した場合,国への報告や調査協力(第7条)が法的に求められる事態を想定した体制整備が急務となります。
  4. 将来的な「法制化」の可能性
    附則第2条は,将来的な「法制上の措置」を明確に射程に入れています。本法の施行はゴールではなく,AIガバナンスに関する継続的な法整備のスタート地点であると認識する必要があります。

本法は,AIという急速に進化する技術に対し,法がいかに追随し,秩序を形成しようとしているかを示す第一歩です。今後,本法に基づき策定される「人工知能基本計画」(第18条)や,第13条に基づく具体的な「指針」の策定・改定の動向こそが,弁護士実務に最も大きな影響を与えることになるでしょう。