【2025年最新】ChatGPTに学習させない設定方法|企業でのAI安全活用ガイド

ChatGPTを業務で活用する企業が増える中、「入力した情報が学習されてしまうのでは?」という不安の声が高まっています。実際、2023年3月にはサムスン電子で機密情報漏洩事件が発生し、わずか20日間で3件もの情報漏洩インシデントが報告されました。しかし、適切な設定を行えば、ChatGPTは安全に活用できるツールです。

本記事では、ChatGPTに入力した情報を学習させない「オプトアウト設定」の方法を、2025年最新版として画像付きで解説します。企業でのAI安全活用のポイントや、さらに効果的なAI活用方法も紹介しますので、ぜひ最後までお読みください。

より実践的なAI活用方法を学びたい方へ 企業での安全なAI活用には、オプトアウト設定だけでなく、体系的なガバナンス構築と実践的なスキル習得が不可欠です。スパルタAIDX研修では、14時間の対面型プログラムで、実務課題を実際にAIで解決する実践特化型の研修を提供しています(300社以上の支援実績)。

ChatGPTのオプトアウトとは?学習機能の仕組み

ChatGPTは、ユーザーが入力した情報を機械学習のトレーニングデータとして活用し、モデルの改善に役立てています。これは便利な機能である一方で、企業の機密情報や個人情報が学習データとして使用されるリスクも伴います。

ChatGPTはどのようにデータを学習するのか

OpenAIは、ChatGPTのサービス開発と改善のために、ユーザーがチャットで入力したコンテンツ(プロンプト)と、それに対するAIの応答を収集しています。これらのデータは、AIモデルのトレーニングに使用され、より精度の高い回答を生成するために活用されます。

具体的には、あなたが「〇〇について教えて」と入力すると、その質問内容と回答がOpenAIのデータベースに保存され、将来的に他のユーザーへの回答品質向上に使われる可能性があります。この仕組み自体はAI技術の進化に貢献する重要なプロセスですが、企業での業務利用においては大きなリスクとなります。

オプトアウト機能とは

オプトアウトとは、ChatGPTに自分が入力した情報を学習させないようにする機能です。この設定を有効にすることで、チャットの内容がモデルのトレーニングに使用されなくなります。

ただし、完全にデータが保存されないわけではありません。OpenAIは、不正利用の監視や品質管理のために、最大30日間はログとして保存する可能性があると明記しています。しかし、このログは学習には使用されないため、情報漏洩リスクは大幅に軽減されます。

なぜオプトアウト設定が必要なのか

企業や個人がChatGPTを利用する際、機密情報や個人情報を入力してしまうケースが後を絶ちません。2023年3月、サムスン電子では以下の3件の情報漏洩が発生しました。

  • 半導体工場のソースコードをバグ修正のために入力
  • 製造プログラムのテストシーケンスを最適化のために入力
  • 社内会議の録音を書き起こして会議録作成に使用

(参考:PC Watch – Samsung、ChatGPTの社内利用で3件の機密漏洩

これらはすべて、便利さゆえに機密情報を気軽に入力してしまった結果です。オプトアウト設定を行うことで、このようなリスクを最小化できます。

ChatGPTに学習させない設定方法【2つの方法】

ChatGPTのオプトアウト設定には、主に2つの方法があります。ここでは、それぞれの手順を詳しく解説します。

方法1:設定画面から機能をオフにする(推奨)

この方法は最も簡単で、すぐに設定できるため推奨されています。

手順1:ChatGPT公式サイトにアクセス まず、ChatGPTの公式ウェブサイト(chat.openai.com)にアクセスし、ログインします。

手順2:設定画面を開く 画面右下にあるプロフィールアイコンをクリックし、メニューから「Settings(設定)」を選択します。

手順3:Data Controlsをオフにする 設定画面内の「Data Controls(データコントロール)」をクリックし、「Improve the model for everyone(すべての人のためにモデルを改善する)」という項目のスイッチをオフにします。確認画面が表示されたら「オフにする」を選択します。

これで設定は完了です。以降、あなたの入力データはChatGPTのモデル改善のために自動で使用されることはありません。

方法2:公式サイトからオプトアウト申請を行う

より確実にオプトアウトしたい場合は、OpenAIの公式プライバシーポータルから申請する方法もあります。

手順1:OpenAI Privacy Portalにアクセス OpenAIのプライバシーポータル(privacy.openai.com)にアクセスします。

手順2:オプトアウト申請フォームを入力 右上の「プライバシーリクエストを行う」をクリックし、ChatGPTアカウントの確認手段(メールアドレスまたは電話番号)を選択します。次に「Do not train on my content(私のコンテンツを学習に使用しないでください)」を選択し、メールアドレスを入力します。

手順3:確認メールから申請を完了 入力したメールアドレスに確認メールが届くので、記載されたリンクをクリックして申請を完了します。

この方法は、方法1よりも手順が多いですが、より公式な形でオプトアウトの意思表示ができます。

(参考:AI総研 – ChatGPTにデータを学習させない方法

設定の確認方法

オプトアウト設定が正しく適用されているかを確認するには、再度「Settings」→「Data Controls」を開き、「Improve the model for everyone」がオフになっていることを確認してください。オフになっていれば、設定は正常に機能しています。

オプトアウト設定の注意点とデメリット

オプトアウト設定には、いくつかの注意点とデメリットがあります。設定前に理解しておきましょう。

チャット履歴が保存されない

オプトアウト設定を有効にすると、チャット履歴が保存されなくなります。つまり、過去の会話を後から見返すことができません。これは、データをサーバーに保存しないことでプライバシーを保護するための仕様です。

重要な情報や参考にしたい回答は、別途メモやファイルに保存しておく必要があります。業務で頻繁にChatGPTを使用する場合は、この点が不便に感じられるかもしれません。

30日間のログ保存期間

オプトアウト設定を行っても、OpenAIは不正利用の監視や品質管理のために、最大30日間はログとして保存する可能性があります。ただし、このログは学習には使用されないと明記されているため、情報が他のユーザーの回答に反映されることはありません。

完全にデータを残したくない場合は、後述する法人プランやAPI版の利用を検討する必要があります。

設定の解除方法

オプトアウト設定は、いつでも解除できます。再度「Settings」→「Data Controls」を開き、「Improve the model for everyone」をオンにすれば、チャット履歴の保存とモデルの改善への貢献が再開されます。

必要に応じて設定を切り替えることができるため、プライベート用と業務用でアカウントを分けるなどの工夫も有効です。

モバイルアプリでの設定方法

モバイルアプリ(iOS/Android)でも、同様にオプトアウト設定が可能です。アプリを開き、画面下部のメニューから「設定」→「データコントロール」と進み、「モデルの改善に貢献する」をオフにします。

スマートフォンで頻繁にChatGPTを利用する方は、必ずモバイルアプリでも設定を行いましょう。

ChatGPT利用時の情報漏洩リスクと対策

オプトアウト設定を行っても、ChatGPT利用時には依然として情報漏洩のリスクが存在します。企業での安全な活用には、包括的な対策が必要です。

企業での情報漏洩事例

イタリアでのChatGPT一時禁止事例

2023年3月20日、ChatGPTでデータ漏洩のバグが発生し、他のユーザーのチャット履歴が表示される問題が起きました。OpenAIの調査により、ChatGPT Plusユーザーの1.2%が個人データを他のユーザーに閲覧された可能性があることが判明しました。

この事件を受け、2023年3月31日、イタリアのデータ保護当局は、プライバシー法違反や年齢確認システムの欠陥を理由にChatGPTに即時一時制限を実施しました。OpenAIは最大2000万ユーロ(約29億円)または世界年間売上高の4%の罰金を科される可能性がありました。禁止措置は、データ処理慣行の開示や年齢ゲーティング措置の実装後に解除されました。

(参考:東洋経済オンライン – ChatGPT「イタリアで一時禁止」裏にある深い事情

サムスンでの機密情報漏洩事例

前述の通り、サムスン電子では2023年3月、ChatGPT導入からわずか20日間で3件の機密情報漏洩インシデントが発生しました。従業員は便利さゆえに、半導体ソースコード、製造プログラム、社内会議録などの機密情報をChatGPTに入力してしまいました。

サムスンはこの事件を受け、3人の従業員を懲戒処分とし、社内でのChatGPT利用を禁止しました。また、AIのプライバシーリスクについて従業員教育を実施し、データ量制限を設けるなどの再発防止策を講じました。

日本企業での情報漏洩リスク

日本では具体的な大規模漏洩事件は公開されていないものの、以下のようなリスクが指摘されています。顧客情報や取引先情報を含む業務文書を要約作成に使用したり、新製品の企画書をブラッシュアップするために入力したりするケースです。「社内で使うだけだから大丈夫」という誤解や、機密情報の範囲が不明確であることが原因となっています。

情報漏洩の3つのパターン

ChatGPTを利用する際、情報漏洩は主に以下の3つのパターンで発生します。

パターン1:ユーザーが意図せず機密情報を入力 

最も多いパターンです。ユーザーが「これくらいなら大丈夫だろう」と思い、顧客名、製品情報、社内データなどを入力してしまいます。オプトアウト設定をしていない場合、これらの情報が学習データとして使用される可能性があります。

パターン2:学習データとして他ユーザーの回答に使われる 

入力した情報が学習データとして使用されると、将来的に他のユーザーへの回答に反映される可能性があります。例えば、あなたが入力した製品情報が、競合他社の社員がChatGPTに質問した際の回答に含まれる可能性がゼロではありません。

パターン3:サイバー攻撃によるデータ流出 

OpenAIのサーバーがサイバー攻撃を受け、保存されているデータが流出する可能性も考えられます。2023年3月のバグ事例のように、システムの脆弱性が原因で情報が漏洩するリスクは常に存在します。

(参考:AI総研 – ChatGPTで情報漏洩が起こる3つのパターン

企業がとるべき対策

企業でChatGPTを安全に活用するには、以下の4つの対策が不可欠です。

社内ガイドラインの策定 何を入力してよいのか、何を入力してはいけないのかを明確に定めた社内ガイドラインを策定します。具体的には、個人情報(氏名、住所、電話番号、メールアドレス)、企業の機密情報(営業秘密、経営戦略、顧客情報)、著作物(社内文書、契約書)などを入力禁止情報としてリスト化します。

オプトアウト設定の徹底 全従業員のアカウントでオプトアウト設定を実施し、定期的に設定を確認します。新入社員や異動者に対しても、必ず設定を行うよう徹底します。

法人プランの検討 後述するChatGPT TeamやEnterpriseなどの法人プランでは、デフォルトで入力データが学習に使用されません。セキュリティを重視する企業は、法人プランの導入を検討すべきです。

定期的な社員教育 ChatGPTのリスクと安全な使い方について、定期的に社員教育を実施します。具体的な事例(サムスンの事例など)を共有し、危機意識を高めることが重要です。

企業向けChatGPT利用ガイドライン

企業がChatGPTを安全に活用するには、明確な利用ガイドラインが必要です。ここでは、実務で役立つポイントを解説します。

入力してはいけない情報

企業でChatGPTを利用する際、以下の情報は絶対に入力してはいけません。

個人情報 個人情報保護法で定義される個人情報(氏名、住所、電話番号、メールアドレス、生年月日など)は入力禁止です。特に「要配慮個人情報」(病歴、犯罪歴、人種、民族、信条、社会的身分)は、取得に本人の同意が必要なため、ChatGPTへの入力は法律違反となる可能性があります。

2023年6月、個人情報保護委員会は生成AIサービスの利用に関する注意喚起を発表し、プロンプトに個人情報を含む情報を入力する場合は利用目的の特定が必要であること、AIサービス提供者への「第三者提供」と評価される可能性があることを指摘しています。

企業の機密情報 不正競争防止法で保護される「営業秘密」(技術情報、顧客リスト、販売マニュアル、経営戦略など)も入力禁止です。営業秘密は、秘密管理性、有用性、非公知性の3要件を満たす必要がありますが、ChatGPTに入力すると非公知性を失い、法的保護が受けられなくなる可能性があります。

経済産業省が2025年3月に改訂した「営業秘密管理指針」では、生成AIに関する「秘密管理性」の考え方が明確化されており、企業は生成AI利用に関するガイドラインと徹底的な従業員教育が必要だと示されています。

著作物 社内で作成した文書であっても、著作権が発生する可能性があります。研修資料、提案書、マニュアル、プログラムのソースコードなどは、著作権法上の保護対象となる場合があるため、慎重に扱う必要があります。

法人プランとの違い

ChatGPTには、個人向けの無料版・Plus版に加え、法人向けのTeam版とEnterprise版があります。これらのプランでは、セキュリティとプライバシー保護が大幅に強化されています。

項目無料版・PlusTeamEnterprise
データ学習される(オプトアウト可)されないされない
月額料金無料/$20$25/ユーザー要見積もり
SSOなしなしあり
SOC2準拠なしなしあり
監査ログなし制限あり詳細

ChatGPT Teamは、2名以上のチーム向けで月額$25/ユーザー(年間契約)です。デフォルトでユーザーデータがモデルのトレーニングに使用されず、GPT-4への無制限アクセス、カスタムGPTs作成、チーム管理機能が利用できます。中小規模の企業に適しています。

ChatGPT Enterpriseは、大規模組織向けの最上位プランで、料金は要見積もりです。SOC2準拠、データ暗号化、シングルサインオン(SSO)、詳細な監査ログなど、エンタープライズ級のセキュリティ機能が提供されます。金融、医療、法律など、厳格なセキュリティ要件がある企業に適しています。

ChatGPT APIは、プログラムから直接ChatGPTを利用するためのAPIで、従量課金制です。OpenAIは公式に「APIに送信されたデータはトレーニングに使用しない」と明言しており、最も高いレベルのプライバシー保護が提供されます。既存システムへのAI機能組み込みや、カスタムアプリケーション開発に適しています。

社内でのChatGPT利用ルール作成のポイント

効果的な社内ルールを作成するには、以下のポイントを押さえましょう。

まず、入力禁止情報を具体的にリスト化します。抽象的な表現では従業員が判断に迷うため、「顧客の氏名・連絡先」「売上データ」「製品の技術仕様書」など、具体例を挙げることが重要です。次に、オプトアウト設定を必須とし、設定手順を図解付きで説明します。新入社員や異動者に対しても、必ず設定を行うよう徹底します。

また、違反時の対応を明確にします。故意・過失を問わず、ルール違反があった場合の報告フロー、調査手順、懲戒処分の基準を定めておきます。サムスンの事例では、違反者が懲戒処分を受けたことが抑止力となりました。

定期的な見直しも重要です。ChatGPTの機能やOpenAIの規約は頻繁に更新されるため、年1回以上はガイドラインを見直し、最新情報を反映させましょう。

AI安全活用のための法律・ガイドライン

企業がChatGPTを利用する際には、日本の法律と政府のガイドラインを遵守する必要があります。

個人情報保護法との関係

個人情報保護法は、個人情報の適切な取り扱いを定めた法律です。ChatGPTに個人情報を入力する場合、以下の点に注意が必要です。

利用目的の特定(第17条第1項)が必要です。プロンプトに個人情報を含む情報を入力し、個人情報を含む回答を得る場合、利用目的を特定し、プライバシーポリシーに明記する必要があります。また、第三者提供の規制(第27条・第28条)にも注意が必要です。AIサービス提供者がプロンプトに含まれる個人データを機械学習の訓練データセットとして使用する場合、個人データの「提供」と評価され、本人の同意が必要になる可能性があります。

不正競争防止法(営業秘密の保護)

不正競争防止法は、営業秘密の不正取得・使用・開示を禁止する法律です。営業秘密として保護されるには、秘密管理性、有用性、非公知性の3要件を満たす必要がありますが、ChatGPTに入力すると、これらの要件を失う可能性があります。

従業員が会社の機密情報を自由に生成AIに入力できる状態は、秘密管理性の要件を満たさない可能性があります。また、情報を生成AIの学習データとして提供した場合、「公然と知られていないこと」という非公知性の要件を満たさなくなり、営業秘密が法的保護を失う可能性があります。

著作権法上の注意点

ChatGPTを利用する際、著作権法上の問題も発生する可能性があります。著作物(社内文書、契約書、マニュアルなど)をChatGPTに入力することは、著作権法上の複製・公衆送信にあたる可能性があるため、著作権が自社にあるもののみ入力し、他社の著作物は入力しないようにします。

また、ChatGPTが生成した文章・コードの著作権は、OpenAIの規約ではユーザーに帰属するとされていますが、同じプロンプトで似た出力が生成される可能性があるため、必ず人間が確認・編集し、他者の著作権を侵害していないか確認する必要があります。

経済産業省・総務省のAI利用ガイドライン

経済産業省と総務省は、2024年4月に「AI事業者ガイドライン(第1.0版)」を取りまとめ、2025年3月に第1.1版を公表しました。このガイドラインは、AI開発者、AI提供者、AI利用者を対象とし、AIのリスクを正しく認識し、自主的に必要な対策を実行できるようにすることを目的としています。

主なポイントは、データ保護と機密情報の適切な管理、情報漏洩リスクの認識とセキュリティ対策の実施、企業としての管理体制と従業員教育の重要性、AI利用の開示と結果の検証などです。

(参考:経済産業省 – AI事業者ガイドライン(第1.0版)

企業のAI利用ポリシー策定のポイント

これらの法律とガイドラインを踏まえ、企業は独自のAI利用ポリシーを策定する必要があります。ポリシーには、利用目的の明確化、入力禁止情報のリスト化、オプトアウト設定の必須化、法人プランの活用、従業員教育の実施計画、違反時の対応フローなどを含めます。

実践的なAI活用ガバナンスを学ぶ 法律遵守は最低限の要件であり、企業でのAI活用を成功させるには、実践的なガバナンス構築とスキル習得が必要です。スパルタAIDX研修では、法律・ガイドラインを踏まえた上で、実務課題を実際にAIで解決する14時間の対面型プログラムを提供しています。研修前に業務フローを整理し、自社の課題に最適化された実践演習を行うため、研修直後から現場で成果を出せます。

よくある質問(FAQ)

オプトアウト設定すると何が変わる?

オプトアウト設定を有効にすると、あなたが入力したチャット内容がChatGPTのモデル改善のために使用されなくなります。ただし、チャット履歴がサーバーに保存されなくなるため、過去の会話を後から見返すことはできません。重要な情報は別途保存しておく必要があります。

過去の会話データも削除される?

オプトアウト設定を有効にする前に行った会話は、すでにOpenAIのサーバーに保存されています。設定を有効にしても、過去のデータが自動的に削除されるわけではありません。過去のデータを削除したい場合は、OpenAIのプライバシーポータルから削除リクエストを送る必要があります。

無料版と有料版で違いはある?

オプトアウト設定の機能自体は、無料版(ChatGPT)と有料版(ChatGPT Plus)で同じです。どちらも設定画面から「Improve the model for everyone」をオフにすることで、データが学習に使用されなくなります。ただし、法人プラン(Team/Enterprise)では、デフォルトでデータが学習に使用されないため、オプトアウト設定を行う必要がありません。

API版は学習されない?

はい、ChatGPT APIを通じて送信されたデータは、OpenAIのモデルトレーニングに使用されません。OpenAIは公式に「APIに送信されたデータはトレーニングに使用しない」と明言しています。最も高いレベルのプライバシー保護が必要な場合は、API版の利用を検討してください。

設定後も安全に使える?

オプトアウト設定を行えば、データが学習に使用されるリスクは大幅に軽減されますが、完全にリスクがゼロになるわけではありません。最大30日間はログとして保存される可能性があり、システムの脆弱性によるデータ流出のリスクも存在します。企業での業務利用においては、オプトアウト設定に加え、社内ガイドラインの策定、従業員教育、法人プランの検討など、包括的な対策が必要です。

さらに安全で効果的なAI活用を目指すなら

オプトアウト設定は、ChatGPTを安全に利用するための第一歩ですが、それだけでは十分ではありません。企業でAIを真に活用するには、セキュリティリスクの管理、効果的な活用方法の習得、組織全体での推進体制の構築が必要です。

企業でのAI活用における3つの課題

課題1:セキュリティリスクの管理 オプトアウト設定を行っても、従業員が機密情報を誤って入力するリスクは残ります。技術的な設定だけでなく、従業員の意識改革と組織的なガバナンス構築が不可欠です。

課題2:効果的な活用方法の習得 ChatGPTを導入しても、「どう使えば業務効率が上がるのか分からない」という声が多く聞かれます。プロンプトの書き方、業務への適用方法、成果の測定方法など、実践的なスキルが必要です。

課題3:組織全体での推進体制 一部の従業員だけがAIを活用している状態では、組織全体の生産性向上にはつながりません。AI推進部門の立ち上げ、社内ルールの策定、継続的な改善サイクルの構築が求められます。

スパルタAIDX研修で学べること

株式会社LOGの代表取締役・矢嶋拓弥氏が提供する「スパルタAIDX研修」は、これらの課題を解決する実践特化型の研修プログラムです。

AI安全活用のガバナンス構築 個人情報保護法、不正競争防止法、著作権法などの法律を踏まえた上で、実務で使える社内ガイドラインの策定方法を学びます。単なる座学ではなく、自社の状況に合わせたカスタマイズされたガバナンス体制を、14時間の研修中に構築します。

実務課題を実際にAIで解決する実践演習 研修前に業務フローと課題を整理し、実際の業務課題をテーマにしたワーク形式で研修を実施します。DX講師が対面で実践的に指導し、その場でフィードバックを受けられるため、eラーニングや動画研修では得られない深い理解と即戦力が身につきます。

社内AI推進体制の構築方法 AIネイティブな組織に必要なAI推進事業部の立ち上げ、組織体制の設計、推進人材の育成、AI活用ロードマップの策定まで、研修内でカバーします。

導入企業の成功事例

スパルタAIDX研修は、300社以上の企業で導入され、具体的な成果を上げています。

建設業のある企業では、ChatGPTを活用した施工計画書作成の効率化に成功し、作成時間を2週間から30分に短縮しました。これにより、技術者がより創造的な業務に集中できるようになり、プロジェクトの品質も向上しました。

製造業のある企業では、プラスチック製造工場の工程管理システムの改善に取り組み、生産性が15%向上しました。AIを活用したデータ分析により、ボトルネックを特定し、最適な生産計画を立てられるようになりました。

士業の事務所では、生成AIを活用した契約書作成の自動化により、作成時間を50%削減し、顧客へのより高付加価値なサービス提供が可能になりました。

(参考:株式会社LOG – AI土木導入事例

無料相談・資料請求の案内

スパルタAIDX研修では、無料相談と資料請求を受け付けています。初回相談では、貴社の課題をヒアリングし、研修内容や期待される成果について詳しくご説明します。また、人材開発支援助成金の活用サポートも提供しており、実質的な費用負担を軽減できる可能性があります。

企業でのAI活用を本気で推進したい方は、ぜひスパルタAIDX研修の詳細をご確認ください。

まとめ

ChatGPTに入力した情報を学習させないオプトアウト設定は、企業でのAI安全活用の第一歩です。本記事でご紹介した2つの設定方法(設定画面からオフにする方法、公式サイトから申請する方法)のいずれかを実施することで、データが学習に使用されるリスクを大幅に軽減できます。

しかし、オプトアウト設定だけでは十分ではありません。サムスンの事例やイタリアの一時禁止事例が示すように、技術的な設定に加え、社内ガイドラインの策定、従業員教育の実施、法人プランの検討など、包括的な対策が必要です。

さらに、企業でのAI活用を成功させるには、セキュリティリスクの管理だけでなく、効果的な活用方法の習得と組織全体での推進体制の構築が不可欠です。個人情報保護法、不正競争防止法、著作権法などの法律を遵守しながら、実務で成果を出せる実践的なスキルを身につけることが重要です。

本記事が、皆様の安全で効果的なAI活用の一助となれば幸いです。まずはオプトアウト設定を行い、次のステップとして社内ガイドラインの策定や従業員教育に取り組んでみてください。そして、より深く学びたい方は、実践特化型の研修プログラムの活用もご検討ください。

CONTACT

資料請求・お問い合わせはこちらから

お気軽にご連絡ください