こんにちは! AIブロガーのガジュマロです。
いつもブログにお付き合いいただき、本当にありがとうございます。
最近、AIの便利な使い方についてお話しする機会が増えました。でも、ニュースなどで「個人情報流出」なんて言葉を聞くと、ドキッとすること、ありませんか?
「AIって便利そうだけど、なんだかよく分からないし、自分の情報もどこかに漏れちゃうんじゃないの…?」
そんな風に心配になる方も、きっといらっしゃると思います。
私自身、AIと対話していてその賢さに驚く一方で、今でも「この会話、どこかに漏れているんじゃないかな?」なんて、ふと不安に感じてしまうことがあります。入力する情報には、ついつい神経質になってしまいますよね。大切な個人情報ですから、気になってしまうのは当然のことだと思います。
今日は、そんなAIと個人情報に関する不安について、少し整理をしながら、私たちが安心してAIと付き合うためにできることを一緒に考えていきたいと思います。
AIと個人情報、何が心配されているの?
具体的にどんなことが心配されているのか、まずは整理してみましょう。大きく分けて、以下の3つの点が挙げられるかと思います。
- 入力した情報が漏れてしまう?
私たちがAIと会話する中で入力する質問や相談内容。これが、AIサービスの開発元や、悪意のある第三者に知られてしまうのではないか、という心配ですね。
- 入力した情報が、AIの学習に使われてしまう?
AIは日々学習して賢くなりますが、その学習材料として私たちが入力した会話データが使われることがあります。自分の情報がAIの知識の一部になることへの抵抗感ですね。
- AIサービスのアカウント情報が流出する?
アカウント登録した氏名、メールアドレス、パスワードなどが、サイバー攻撃などで漏洩するリスクです。これはインターネットサービス全般に共通する心配事です。
過度に恐れすぎなくても大丈夫? 少し安心できる話 (2025年3月時点)
さて、これらの心配事に対して、AIサービスを提供している会社はどのように考えているのでしょうか。それぞれの点について、少し調べてみたところ、私たち利用者が少し安心できるような取り組みも進められているようです。
- 入力した情報が漏れてしまう? ⇒ 暗号化などの対策が進んでいます
まず、入力した情報が外部に漏れるリスクについてです。
主要な生成AIサービスを提供している企業は、このリスクに対して様々な対策を講じていると説明しています。主なものとしては、
- 通信の暗号化: 私たちのパソコンやスマホとAIサーバーとの間の通信を暗号化し、途中で盗み見られないようにする。
- 保存データの暗号化: サーバーに保存されるデータ自体を暗号化する。
- アクセス管理: データにアクセスできる担当者を厳しく制限する。
- 脆弱性対策: システムの弱点を常に探し、修正する。
- 監視体制: 不正なアクセスがないか、24時間体制で見守る。
- 第三者認証: セキュリティ基準を満たしているか、外部機関のチェックを受ける。
といったことを行っているそうです。
もちろん、どんな対策にも「絶対」はありません。これはAIに限らず、インターネットの世界では常に意識しておくべきことかもしれません。でも、少なくとも、入力した情報が簡単に外部に漏れ出してしまう、という事態を防ぐために、各社とも様々な努力をしている、ということは言えそうです。
- 入力した情報が、AIの学習に使われてしまう?
⇒ 設定などで回避可能です
次に、入力データがAIの学習に使われる点についてです。
個人向けの無料版や有料版の利用規約を見てみると、多くの主要な生成AIで、サービスを改善するために、入力されたデータがAIの学習に使われることが「ある」と書かれています。
「やっぱり学習に使われるんだ…」とがっかりされたかもしれません。でも、だからといって、入力した情報がそのまま誰かに見られてしまう、ということなのでしょうか?
ここで、ちょっとだけ安心できる材料があります。
多くのサービスでは、入力されたデータを学習に使用する場合でも、氏名やメールアドレス、住所や電話番号といった、個人を特定できる情報はシステム的に取り除く(匿名化する、といいます)処理をしている、とのことです。
ただ、「それでもやっぱり気になる」「匿名化されても、内容によっては学習に使われたくない」と感じる方もいらっしゃいますよね。私もそうです。匿名化ではその重要性が失われない情報を取り扱う事もあるかもしれませんし、完全に安心とは言い切れない部分もあるかもしれません。
そこで更に一歩。多くのサービスでは、私たち利用者が「学習に使わないでね」と意思表示できる(「オプトアウトする」なんて言い方をします)選択肢を用意してくれています。 主要な生成AIでの具体的な意思表示の方法(2025年3月時点の例)は以下の通りです。
- ChatGPT (OpenAI社)
設定画面で会話データを学習に使うかどうかを選べるようになっています。
(2025年3月時点では、チャット画面の右上に「一時チャット」というボタンがあるので、それをONにして会話するという方法もあります) - Gemini (Google社)
設定にある「アクティビティ」(活動の履歴のようなものですね)をオフにすることで、学習への利用を止められるとされています。
(2025年3月時点では、チャット画面の左下に「geminiアプリアクティビティ」というボタンがあるので、それをクリックして設定画面に進み、「geminiアプリアクティビティ」という項目の右にある「オフにする」というボタンをクリックします) - Claude (Anthropic社)
「原則として会話データを学習には使いません」という方針を明確に打ち出しているようです。そのため、特に設定しなくても、入力データは学習には使用されない、と説明されています。 - Copilot (Microsoft社)
設定画面から、テキストと音声を学習に使用するかどうかを選べるようになっています。
(2025年3月時点では、チャット画面の右上にあるアカウントのアイコンをクリックし、出てきた画面の、名前とメールアドレスが表示される箇所をクリックしてアカウント設定ウィンドウを開きます。アカウント設定ウィンドウにはプライバシーという項目があるので、クリックすると「テキストでのモデルトレーニング」と「音声でのモデルトレーニング」という項目があるので、オフにします。少し手順がありますが、設定可能です)
ひと手間はかかってしまいますが、このようにデータが学習に使われるのを避けられる道が用意されている、というのは助かりますね。
ただし、これらの情報は2025年3月現在のものですし、サービス内容やポリシー、画面の表示などは今後変わる可能性が大いにあります。
ですから、もし皆さんがこれらのサービスを使われる際には、一度、それぞれの公式サイトにあるプライバシーに関する説明(プライバシーポリシーやFAQなど)に目を通してみるのが、一番確実で安心できる方法だと思います。「探したり読むのは大変だ…」と感じるかもしれませんが、ご自身の情報に関わることですので、少し気にかけてみてください。
ちなみに、会社などで使うような特別な有料プランの場合、話はもう少し簡単です。このようなプランでは、前記した全ての主要な生成AIは、入力したデータを学習データとして使用しない事を保証しています。
企業にとっては、顧客情報や社内の開発情報といった機密情報は、事業の根幹に関わる非常に大切なものです。そのため、一般的にこうした法人向けのプランでは、入力した会話データがAIの性能改善のために学習データとして利用されないことを利用規約や契約などで明確に保証しています。このことにより、企業は自社の大切な情報をしっかりと守りながら、安心して業務でAIの力を活用できるというわけです。
- AIサービスのアカウント情報が流出する?」
⇒ 私たちにできる対策をしっかり行いましょう
最後に、アカウント情報の流出リスクについてです。
主要な生成AIを提供している企業の多くは、世界規模でサービスを展開する大手企業であり、一般的にセキュリティ対策には多額の投資を行っていると考えられます。何事にも100%はありませんが、一定の信頼はおけるのではないでしょうか。
ただ、企業側の対策を信頼しつつも、私たち自身でできる対策もあります。というより、こちらの方がより身近で重要かもしれません。
アカウント管理はしっかりと! これはAIサービスに限りませんが、とても重要です。
- パスワードの使い回しはしない: 他のサービスと同じパスワードを使うのは絶対に避けましょう。もし一つ漏れると、他のサービスにも不正ログインされる危険があります。
- 複雑なパスワードを設定する: 誕生日や名前など推測されやすいものを避け、大文字・小文字・数字・記号を組み合わせた、長くて複雑なパスワードを心がけましょう。
- 二段階認証を利用する: 多くのサービスで、ID・パスワードに加えて、スマホアプリやSMSなどで送られる確認コードの入力を求める「二段階認証」が利用できます。もしサービスにこの機能があれば、ぜひ設定しましょう。セキュリティが格段に向上します。
アカウント管理以外にも、普段から心がけたいこと
アカウント管理に加えて、AIと付き合う上で普段から少し意識しておくと良いことを、改めてまとめてみます。
- 「これは入力しても大丈夫かな?」一呼吸おいて考える
これが一番の基本かもしれません。AIに質問や相談をする前に、**「この情報には、個人を特定できるような情報(氏名、住所、電話番号、メールアドレス、マイナンバーなど)や、他人には知られたくないプライベートな情報、会社の機密情報などが含まれていないかな?」**と、一呼吸おいて考えてみる習慣をつけるのがおすすめです。特に必要がなければ、具体的な個人情報は入力しないようにしましょう。 - 信頼できるサービスを選ぶ
話題になっているからといって、提供元がよくわからないようなAIサービスに安易に個人情報を登録したり、情報を入力したりするのは避けましょう。有名な企業や、信頼できると判断できるサービスを選ぶようにしたいですね。 - 設定を確認してみる
もし使っているAIサービスに、データの取り扱いに関する設定項目(学習への利用をオフにする設定など)があれば、一度確認してみることをおすすめします。少し手間かもしれませんが、安心につながるかもしれません。
まとめ:正しく知って、賢く付き合う
個人情報の流出、確かに心配なテーマです。でも、漠然と不安に思うだけでなく、「何がリスクなのか」「どうすればそのリスクを減らせるのか」を具体的に知ることで、過度な心配は手放せるのではないかと思います。
完璧な安全、というのは、残念ながらインターネットの世界には存在しないのかもしれません。でも、基本的な対策を心がけることで、リスクを大きく減らすことは可能です。これは、AIだけでなく、私たちが普段使っている様々なインターネットサービスにも共通して言えることですよね。
せっかく登場したAIという便利な道具。その恩恵を受けられないのは、もったいない気もします。リスクを正しく理解し、自分でできる対策をしっかり行った上で、安心して活用していく。そんな賢い付き合い方を、皆さんと一緒に見つけていけたら嬉しいです。
今回も、最後までお読みいただき、ありがとうございました。
【参考情報】主要生成AIサービスのデータ取り扱い比較表(概要)
【重要】
- この表は、2025年4月2日時点での一般的な情報や公表されているポリシーに基づいた概要です。
- 各社の利用規約やプライバシーポリシーは頻繁に更新されます。個別の詳細な条件や最新情報については、必ず各サービスの公式サイトにある利用規約、プライバシーポリシー、ヘルプページ等をご確認ください。
- 「企業利用」は、主に法人向けの有料プラン(例: ChatGPT Team/Enterprise, Copilot for Microsoft 365, Gemini for Google Workspaceなど)を想定しています。
- API経由での利用は、多くの場合、企業利用と同様に学習利用されないポリシーが適用されますが、ここでは主にWebインターフェースや専用アプリでの利用を想定しています。
サービス名 | 利用形態 | 会話履歴の記録 | 学習への使用 | セキュリティ状態(主な特徴) |
ChatGPT (OpenAI) | 個人利用 無料版 | あり 設定で履歴オフ可能 | あり 設定で拒否可能 | 標準的 |
個人利用 有料版 (Plus等) | あり 設定で履歴オフ可能 | あり 設定で拒否可能 | 標準的 | |
企業利用 有料版 (Team/Enterprise) | あり(組織管理者が管理)(保持期間設定等可能) | なし (商用データ保護) | 強化: SOC 2 Type 2準拠、保存データ・転送データ暗号化、アクセス制御など | |
Copilot (Microsoft) | 個人利用 無料版 | あり(MSアカウント連携時)(履歴管理・削除可能) | あり 設定で拒否可能 | Microsoft標準のセキュリティ対策 |
個人利用 有料版 (Pro) | あり(MSアカウント連携時)(履歴管理・削除可能) | あり 設定で拒否可能 | Microsoft標準のセキュリティ対策 | |
企業利用 有料版 (for M365) | 記録は組織ポリシー依存(監査等)(会話データは原則保存されず) | なし (商用データ保護) | 強化: Microsoft 365準拠のセキュリティ、コンプライアンス、アクセス制御など | |
Gemini (Google) | 個人利用 無料版 | あり 設定で履歴オフ可能 | あり 設定で拒否可能 | Google標準 |
個人利用 有料版 (Advanced) | あり 設定で履歴オフ可能 | あり 設定で拒否可能 | Google標準 | |
企業利用 有料版 (for Workspace) | 記録は組織管理者が管理 | なし(商用データ保護) | 強化: Google Workspace準拠のセキュリティ、データリージョン、アクセス制御など | |
Claude (Anthropic) | 個人利用 無料版 | あり | なし | 標準的 |
個人利用 有料版 (Pro) | あり | なし | 標準的 | |
企業利用 有料版 (Team等) | 記録は組織管理 | 原則学習利用なし | 強化(詳細プランによる) |
コメント