(AI作成)アクティビティ履歴オフのGoogle AI Ultraの利用は弁護士の守秘義務等に違反しないこと

本ブログ記事は専らAIで作成したものです。

目次

はじめに

第1 結論

第2 前提条件と技術的評価
1 学習データへの不使用(Learning Off)の確実性
2 データの機密性と暗号化(Confidentiality)
3 人間によるレビューの排除
4 シャドーIT排除の必要性

第3 法的評価
1 弁護士職務基本規程(守秘義務)との整合性
2 個人情報保護法との整合性

第4 総合判断
1 利用の適法性と安全性
2 「使わないこと」による倫理的リスク
3 監督者責任としてのAI利用

はじめに

本記事では,Google One AI Premium(コンシューマー向け有料プラン)で提供される「Gemini Advanced」(Gemini 3.0 Pro等の上位モデルを利用可能な月額制有料サービス(例えば,月額3万6400円のGoogle AI Ultra)のことです。以下「本AI」といいます。)の利用が,弁護士業務において法的かつ技術的に安全であることを詳細に解説します。

第1 結論

「学習機能の無効化(アクティビティ履歴オフ)」の設定を適用した状態で,本AIを弁護士業務に利用することは,技術的な情報セキュリティが確保されており,かつ弁護士職務基本規程上の守秘義務および個人情報保護法等の法令に違反するものではなく,全く問題ないと判断いたします。
加えて、本稿で推奨する運用は、総務省・経済産業省による「AI事業者ガイドライン」(第1.1版)(令和7年3月28日)がAI利用者に求める責務をも充たすものであり、コンプライアンスの観点からも推奨されます。

第2 前提条件と技術的評価

本AIを業務利用するにあたり,情報工学およびセキュリティ技術の観点から,そのデータ処理プロセスを解析・評価します。

1 学習データへの不使用(Learning Off)の確実性

Googleのコンシューマー向け有料プラン(Google One AI Premium等)においても,「Gemini アプリ アクティビティ」をオフ(無効)に設定することで,入力されたプロンプト(指示命令文)および生成された回答データは,Googleの基盤モデルの再学習(トレーニング)には使用されません。
さらに重要なのは,これが単なる設定上の挙動にとどまらず,Googleの「ジェネレーティブ AI 追加利用規約」およびプライバシーヘルプにおいて,「ユーザーが明示的にフィードバックを送信しない限り,学習には使用しない」旨が法的に確約されている点です。
つまり,Googleは契約上,ユーザーの許可なくデータを学習に利用できない義務を負っており,設定と規約の両面から「学習データへの不使用」が担保されています。

(1) 学習データからの分離と一時的な保持

Googleのプライバシーポリシー上,アクティビティをオフにした場合でも,安全性維持(不正利用の監視等)の目的のために,データは最大72時間保持されます。
しかし,重要な点は,この保持されたデータが「学習用データベース(コーパス)」からは完全に切り離されているという事実です。
この72時間の保持は,あくまでマルウェア生成やヘイトスピーチ等の規約違反を機械的に検知するための「検疫」プロセスであり,AIの知能向上(再学習)のために蓄積・利用されるプロセスは遮断されています。

(2) 情報漏洩リスクの構造的排除

上記(1)の処理により,自身が入力した情報が学習され,他者への回答として出力されるリスクは構造的に排除されています。

2 データの機密性と暗号化(Confidentiality)

30TB等の大容量ストレージを含む上位プランにおけるインフラストラクチャでは,データは以下の状態で厳格に保護されています。

(1) 転送中の暗号化(Encryption in Transit)

HTTPS/TLSプロトコルにより,端末からGoogleサーバー間の通信経路は暗号化され,中間者攻撃(Man-in-the-Middle)による盗聴を防ぎます。

(2) 保存時の暗号化(Encryption at Rest)

サーバー内で処理される際も,データはAES-256等の高度な方式で暗号化されています。

(3) 攻撃リスクに対する正しい評価(ゼロトラスト)

「プロンプトインジェクション」等のAI特有の攻撃リスクを過度に恐れる声もありますが,これは主にチャットボットを騙す手法であり,データベースから情報を引き抜くSQLインジェクション等とは性質が異なります。
また,クラウドベンダーへのサイバー攻撃リスクは,AIに限らずWebメールやチャットツール(Teams/Slack)でも同列です。AIだけを特別視するのではなく,MFA(多要素認証)やSSO(シングルサインオン)といった標準的なSaaSセキュリティ対策を講じることが,ゼロトラスト時代の正しい防御策です。

3 人間によるレビューの排除

(1) 「アクティビティ履歴」をオフに設定している場合,Googleの品質向上プロセス(AIの回答精度改善)における「人間のレビュアーによる会話内容の確認」は行われません。
もっとも,前述の通り不正利用監視(Abuse Monitoring)の観点からシステムが異常(セキュリティリスク等)を検知した場合に限り,例外的に安全確認プロセスが入る可能性は否定されませんが,これはGmail等のメールサービスにおいてウイルス検知やスパム判定が行われるのと同質のセキュリティ措置です。
したがって,技術的観点において,一般的なクラウドメール(Gmail等)やクラウドストレージを利用する場合と同等,あるいはそれ以上のセキュリティ強度が確保されていると評価できます。

(2) むしろ,国際的なセキュリティ認証(SOC 2 Type 2,ISO 27001等)を取得し,兆円単位の投資により物理的監視・DDoS対策・暗号化が施されているGoogleのクラウド環境を利用することは,一般的な法律事務所が自前で構築・管理するサーバー(オンプレミス)を利用するよりも,客観的なセキュリティレベルは遥かに高いと言えます。
「データが手元にあるから安全」という感覚は理解できますが、現代のサイバーリスク環境下では、むしろクラウドベンダーの堅牢なリソースを活用することこそが合理的な選択です。パッチ適用の遅れや内部不正リスクを抱える小規模なオンプレミス環境よりも、ゼロトラストを前提とした堅牢なクラウド環境の方が、情報の機密性はより確実に保持されます。

4 シャドーIT排除の必要性

一部には「アカウント情報の管理不安」等を理由に,過度に厳格な利用制限や都度の同意取得を求める見解も見受けられます。
しかし,情報セキュリティ監査(CISA)の視点からは,現場の実態を無視した過度な禁止ルールこそが,最も深刻なセキュリティリスクである「シャドーIT」を誘発すると断言できます。

業務での利用を極端に制限すれば,多忙な弁護士や事務職員は,事務所の管理が及ばない個人の私用スマホや無料版のAIツール等で業務データを処理するようになります。これではログ監査も不能となります。
したがって,「ガチガチの禁止・同意ルール」ではなく,「業務端末からセキュアにアクセスできる環境を提供する」ことが重要です。その上で、単に推奨するだけでなく、就業規則(服務規律)や情報セキュリティ規程において『生成AI利用ガイドライン』を明確化し、『業務アカウントのみを使用する』『学習オフ設定を確認する』といったルールを所内研修等で徹底することこそが,実効性のある情報漏洩対策となります。
これは、AI事業者ガイドライン40頁におけるAI利用者の重要事項である「安全を考慮した適正利用」(U-2)の実践に他なりません。

第3 法的評価

次に,法的な観点,特に弁護士の核心的義務である守秘義務および個人情報保護法の観点から検討します。

1 弁護士職務基本規程(守秘義務)との整合性

弁護士職務基本規程23条(秘密の保持)において,「弁護士は、正当な理由なく、依頼者について職務上知り得た秘密を他に漏らし、又は利用してはならない。」と定められています。

本AIを利用することが「秘密の漏えい」に当たるかどうかが争点となりますが,以下の理由により該当しません。

(1) 第三者開示の不存在

第2の技術評価で述べた通り,学習オフ設定下では,情報はGoogleのAIモデル改善のために利用されず,第三者に内容が開示されることもありません。多くの法律事務所が日常的に利用しているGoogle検索やMicrosoft 365(クラウド版Word等)と同様,あるいは,プロバイダのサーバーを通過・一時保存される電子メールと同様,これらは業務遂行のためのツール利用に過ぎません。
これは,クラウドストレージ(DropboxやGoogle Drive等)にファイルを保存する行為と同様,「情報を保管・処理させるための利用(委託)」であり,秘密を第三者に開示・漏洩する行為とは法的性質を異にします。

(2) 技術的担保に基づく正当性

ア 弁護士がクラウドサービスを利用する際のガイドライン等においても,適切なセキュリティ設定(アクセス制限,暗号化等)がなされている限り,クラウドサービスの利用は守秘義務違反には当たらないと解されています。本AIの設定運用は,この要件を十分に満たしています。

イ 一部には「AIの内部動作(ブラックボックス)を完全に理解すべき」との精神論も存在しますが,これは「電子メール送受信時にTCP/IPプロトコルの詳細やSMTPの暗号化方式を理解せよ」と言うに等しく,非現実的です。
我々に求められているのは,エンジニアレベルの仕組みの理解ではなく,「入力と出力の特性(限界)の把握」と「検証プロセスの確立」です。
ブラックボックスの中身ではなく,アウトプットに対する検証(Verification)さえ統制できていれば,職務上の義務は果たされていると解されます。

(3) 依頼者との信頼関係と透明性(Transparency)

もちろん,法的に問題がないからといって,依頼者の心情を無視してよいわけではありません。信頼関係(ラポール)を維持する観点からは,委任契約書や重要事項説明書に「最新技術(セキュアなAI等)を用いて業務効率化を図る場合がある」旨を明記するなど,透明性を確保する姿勢こそが,現代の法律家に求められるプロフェッショナリズムと言えるでしょう。

2 個人情報保護法との整合性

個人情報保護法27条(第三者提供の制限)において,「個人情報取扱事業者は,あらかじめ本人の同意を得ないで,個人データを第三者に提供してはならない」とされています。

本AIへの入力データに個人情報が含まれる場合,これが「第三者提供」に該当するかが問題となりますが,同法および個人情報保護委員会ガイドラインの解釈に基づき,以下の通り適法です。

(1) 法27条5項1号に基づく「委託」への該当性

ア 個人情報保護法27条5項1号では,利用目的の達成に必要な範囲内において個人データの取扱いを「委託」する場合,本人の同意なくデータを提供できると定めています。
ここで重要となるのが,クラウド事業者がデータを「自社の事業目的(AIの学習等)のために利用しない」契約となっているか否かです。
この点,前述の通り「72時間の保持(不正利用監視)」はGoogle側の安全管理目的とも読めますが,これは同時に,ユーザーが安全な環境を利用するための必須措置でもあります。
そして何より,本AIの「学習オフ」設定および利用規約は,Google側が入力データを自社の核心的事業価値である「AIモデル改善(再学習)」のために利用しないことを明確に保証しています。
したがって,本AIへの入力は,形式的な第三者提供ではなく,弁護士業務遂行のための適法な「情報処理の委託」であり,依頼者の個別の同意を得ることなく利用することが可能です。

イ そもそも、我々弁護士は、Googleで判例を検索する際や、Wordで準備書面を作成する際に、依頼者から個別の同意を得ているでしょうか。適切なセキュリティ設定下で利用する限り、生成AIもこれらと同様の「業務ツール」です。
法的に「委託」の範疇にあるものについて、過剰に同意を求めることは、実務上の「同意疲れ」を招き、真に必要な場面での同意の価値を希薄化させる懸念すらあります。また、このような適切な設定による入力管理は、AI事業者ガイドライン40頁が求める「個人情報の不適切入力及びプライバシー侵害への対策」(U-4)としても機能するものです。

(2) 安全管理措置(第23条)

弁護士(個人情報取扱事業者)は,安全管理措置を講じる義務がありますが,Googleのような国際的なセキュリティ認証(ISO/IEC 27001,SOC 2等)を持つ信頼できるベンダーを選定し,かつ「学習オフ」という最もセキュアな設定を選択して利用することは,必要かつ適切な監督義務・安全管理措置を履行していると評価されます。

第4 総合判断

1 利用の適法性と安全性

以上の通り,情報工学的な「データフローの遮断・暗号化」という事実と,法的な「守秘義務・個人情報保護法の解釈」を照合した結果,「学習オフ」の設定を行ったGemini Advancedを利用することは,依頼者の利益を損なうリスクを極小化しつつ,業務効率を最大化する合理的かつ適法な行為であると結論付けられます。
なお、本稿で推奨する運用体制は、総務省・経済産業省が策定した「AI事業者ガイドライン」19頁及び40頁においてAI利用者(AI Business User)に求められる「適正利用」(U-2)、「入力データの管理」(U-4)、「人間の判断の介在」(C-3)といった指針にも適合するものであり、コンプライアンスの観点からも推奨されるものです。

2 「使わないこと」による倫理的リスク

ア さらに踏み込んで言えば,本件においては「使うリスク」よりも「使わないリスク」こそ直視すべきです。
米国法曹協会(ABA)のモデル規則等が示す「技術的能力義務(Duty of Technology Competence)」の観点からも,AIを使えば数分で完了する判例調査や文書レビューに,人手のみで数十時間を費やし,その莫大なタイムチャージを依頼者に請求することは,もはや倫理的に「過剰請求」や「善管注意義務違反」を問われかねない時代に突入しています。
イ 英米の法律事務所がAIによる効率化でコスト競争力を高める中,「ハルシネーションが怖い」と足踏みすることは,日本の法務サービス全体の地盤沈下を招きます。
AI活用は単なる時短ツールではありません。リサーチやドラフト作成の時間を圧縮することで,人間にしかできない「依頼者への共感(カウンセリング)」や「創造的な法的戦略の立案」といった高付加価値業務にリソースを集中させるための投資です。
これからの弁護士の評価は,「どれだけ時間をかけたか」から「いかに迅速に質の高い解を提供したか(Value)」へとシフトしていきます。
適切なセキュリティ設定の下でAIを活用することは,推奨事項にとどまらず,専門家としての責務と言えるでしょう。

3 監督者責任としてのAI利用

(1) AIのハルシネーション(もっともらしい嘘)を懸念する声がありますが、法的な責任構造はシンプルです。 弁護士業務において、新人弁護士やパラリーガル(事務職員)が作成した起案を、パートナー弁護士がノーチェックで裁判所に提出するでしょうか? しません。必ず内容を査読(Review)し、責任者が承認した上で提出します。 AIも同様です。AIはあくまで「極めて優秀だが、時折知ったかぶりをする新人アソシエイト」と位置付けるべきです。
そのアウトプットの真偽を確認し、最終的な法的構成を決定するのは、常に人間の弁護士の役割です。これは、AIガバナンスにおける国際的な原則である「人間の判断の介在(Human-in-the-loop)」の実践そのものです(AI事業者ガイドライン19頁参照)。
この指揮監督関係さえ維持されていれば、AIが誤答すること自体は法的リスクではなく、単なる「修正前のドラフト」に過ぎません。
(2) AIの導入成功の鍵は,「AIのミス(ハルシネーション)を発見・報告しても責められない環境(心理的安全性)」を組織内に作ることです。AIの誤りを人間がダブルチェックで発見した際,「よく気づいた」と称賛される文化があって初めて,AIと人間との健全な協働(Human-in-the-loop)が機能します。
AIのミスを恐れることは、部下のミスを恐れて仕事を任せないことと同義であり、業務の停滞を招くだけです。