AIチャット、音声入力、議事録作成、文章生成ツールを調べていると、ある言葉によく出くわします。
SOC 2 Type II。
公式サイトに「SOC 2 Type II対応」「SOC 2 Type II取得済み」と書かれていると、なんとなく安心できる気がします。
私も最初はそう思っていました。
でも調べていくうちに、ここには誤解しやすいポイントがあることに気づきました。
SOC 2 Type IIは、サービスの信頼性を測る重要な材料です。
ただ、それだけで次のことが自動的に保証されるわけではありません。
- 入力データがAI学習に使われない
- 入力内容を人間が確認しない
- データが保存されない
- 削除ボタンを押せば完全に消える
- AIの出力が正確・公平・安全である
AIサービスを選ぶ入口として、SOC 2 Type IIはとても有用です。
ただ、本当に確認すべきなのは認証マークそのものではなく、そのサービスが自分のデータをどう扱うかです。
どのデータを、何の目的で、どれくらいの期間、誰に渡し、どんな契約条件のもとで処理するのか。
そこまで見る必要があります。

難しく聞こえるかもしれませんが、要するに「安全そうなマークを確認するだけでなく、自分のデータがどう扱われるかまで追いかけよう」という話です。
- SOC 2 Type IIは「安全の証明書」ではなく「監査報告書」
- Type IとType IIの違い
- SOC 2 Type IIで確認できること、できないこと
- 「SOC 2あり」と「学習なし」は別の話
- SOC 2報告書を見るなら、ここを確認する
- ISO 27001とは何が違うのか
- SOC 2 Type IIとISO 27001の両方に対応しているAIサービスもある
- AIサービスではISO 42001も見かけるようになった
- 無料版・個人版・法人版・APIでデータの扱いは変わる
- 人間レビューの有無は必ず確認する
- 「削除」には複数の意味がある
- AIサービスを見るときのチェックリスト
- 音声入力アプリではさらに注意が必要
- SOC 2がないサービスは使ってはいけないのか
- 仕事で使うなら「便利だから」だけでは選ばない
- 危険なサイン
- まとめ:SOC 2 Type IIは重要。でも入口にすぎない
- 参考情報
SOC 2 Type IIは「安全の証明書」ではなく「監査報告書」

SOC 2は、米国公認会計士協会、AICPAのTrust Services Criteriaに基づく監査報告です。
対象になるのは、サービス提供会社のシステムや管理体制です。
AICPAは、SOC 2を「サービス組織のシステムに関する管理体制のうち、セキュリティ、可用性、処理の完全性、機密保持、プライバシーに関連するものについて、利用者が詳細な情報と保証を得るための報告」と説明しています。
よく関係する観点は5つです。
| 観点 | 内容 |
|---|---|
| セキュリティ | 不正アクセスや権限管理など |
| 可用性 | サービスを安定して使える体制 |
| 処理の完全性 | 処理が正確・完全・適時に行われること |
| 機密保持 | 機密情報を適切に保護すること |
| プライバシー | 個人情報の収集、利用、保持、開示など |
ここで重要なのは、すべてのSOC 2報告書がこの5つを対象にしているわけではない、という点です。
「SOC 2 Type II」と記載されていても、実際にはセキュリティだけが評価対象の場合があります。可用性、機密保持、プライバシーまで含まれているかどうかは、報告書の対象範囲を確認しないとわかりません。
また、SOC 2は資格試験の合格証のようなものではありません。
日本語では「取得している」と表現されることが多いですが、より正確には「独立した監査人によるSOC 2報告書を受けている」という理解に近いです。
つまりSOC 2 Type IIは、「この会社は絶対に安全」という一言の保証ではありません。
より正確には、
「この対象システムについて、この期間に、この基準で、この管理策が設計・運用されていたかを監査人が評価した報告書」
です。
この違いを押さえておくだけで、「SOC 2 Type IIあり」という表示を見る目が変わります。
Type IとType IIの違い

SOC 2にはType IとType IIがあり、この違いも大事です。
| 種類 | 見ているもの | ざっくりした意味 |
|---|---|---|
| SOC 2 Type I | ある時点で管理体制が適切に設計されているか | 仕組みが用意されているか |
| SOC 2 Type II | 一定期間、管理体制が実際に運用されていたか | 仕組みが継続して動いていたか |
Type Iはある時点のスナップショットです。
一方、Type IIは数か月から1年程度の運用実態を追います。
「ルールが存在する」だけでなく、「そのルールが継続的に機能していた」ところまで確認するため、AIサービスやSaaSを業務で使う場合は、一般的にType IIが重視されます。
ただしType IIであっても、対象期間が古かったり、対象製品が自分の使うサービスと一致しなかったりすれば、判断材料としての意味は薄れます。
SOC 2 Type IIで確認できること、できないこと

SOC 2 Type IIで確認しやすいのは、主に管理体制です。
具体的には次のような項目です。
- アクセス権限の管理
- 従業員の認証や権限付与
- ログ管理、脆弱性対応
- 変更管理、インシデント対応
- バックアップ、委託先管理
- 暗号化に関する統制
- セキュリティ監視
一方、SOC 2 Type IIだけでは判断できないこともあります。
| SOC 2だけでは判断できないこと | 理由 |
|---|---|
| 入力データがAI学習に使われるか | 規約、プライバシーポリシー、契約条件で決まる |
| 人間レビュアーが内容を見るか | サービス改善、安全性確認、サポート条件による |
| データが何日保存されるか | データ保持ポリシーやプランごとの条件による |
| 削除後にどこまで消えるか | UI上の削除、ログ、バックアップ、レビュー済みデータで扱いが異なる |
| AIの出力が正確か | SOC 2は出力品質の保証ではない |
| AIが公平・倫理的に運用されているか | SOC 2の主眼はAIガバナンスそのものではない |
特に大事な点を一つ挙げるなら、SOC 2 Type IIは「学習不使用」の証明ではない、ということです。
もし「企業向けプランの入力データはAI学習に使いません」という約束があり、その約束を支える統制が監査対象に含まれているなら、SOC 2報告書は有力な根拠になります。
しかし、そもそも規約や契約に学習不使用の約束がなければ、SOC 2があるだけでは判断できません。
さらに言えば、約束があっても、それを支える管理策が報告書の対象範囲に含まれているとは限りません。
だからこそ、SOC 2の有無だけでなく、その対象範囲を見る必要があるのです。
「SOC 2あり」と「学習なし」は別の話
AIサービスを検討するとき、次の2つは分けて考えることが重要です。
セキュリティ管理。
不正アクセスを防ぐ、権限を管理する、ログを残す、脆弱性に対応する、といった話です。
データ利用。
入力データをAI学習に使うのか、サービス改善に使うのか、人間レビューに回すのか、どれくらい保存するのか、という話です。
この2つは関係していますが、同じではありません。
SOC 2 Type IIは主に前者を見るための材料です。
後者については、次の文書を確認する必要があります。
- プライバシーポリシー
- 利用規約
- 製品別のデータ利用条件
- DPA、データ処理契約
- Trust Centerの説明
- サブプロセッサ一覧
- 管理者向け設定やデータコントロール
見るべきは「SOC 2があります」という表示ではありません。
自分が使うプランで、入力データをどう扱うと約束されているかです。
SOC 2報告書を見るなら、ここを確認する
法人利用や機密情報を扱う場合は、SOC 2報告書そのものを確認できるなら確認した方がよいです。
多くの場合、報告書は一般公開されておらず、NDAやTrust Center経由で提供されます。
最低限見るべきポイントは次の通りです。
| 確認項目 | 見ること |
|---|---|
| 対象サービス | 自分が使う製品やプランが含まれているか |
| 対象期間 | 監査対象期間が古すぎないか |
| Type | Type IではなくType IIか |
| 対象基準 | セキュリティだけか、可用性・機密保持・プライバシーも含むか |
| 監査人の意見 | 無限定意見か、例外や限定があるか |
| 例外事項 | 統制テストで指摘が出ていないか |
| 委託先の扱い | クラウド基盤や外部AIプロバイダーが含まれるか、除外されるか |
| 空白期間 | 報告書の対象期間終了後から現在までの説明があるか |
特に見落としやすいのが「対象サービス」です。
同じ会社でも、個人向けアプリ、法人向けプラン、API、エンタープライズ版で扱いが違うことがあります。
「会社としてSOC 2 Type IIがある」だけでは不十分です。
自分が使う製品がその監査範囲に含まれているかを確認する必要があります。
ISO 27001とは何が違うのか
SOC 2と並んでよく目にするのがISO/IEC 27001です。
ISO 27001は、情報セキュリティマネジメントシステム、ISMSに関する国際規格で、ISOは「ISMSについて世界的によく知られた規格であり、ISMSが満たすべき要求事項を定めるもの」と説明しています。
性格の違いを整理すると次のようになります。
| 項目 | SOC 2 Type II | ISO 27001 |
|---|---|---|
| 性格 | 監査報告書 | 国際規格に基づく認証 |
| 主な焦点 | サービス組織のシステムや統制 | 組織の情報セキュリティ管理体制 |
| 見るポイント | 一定期間、統制が運用されていたか | ISMSが構築・運用・改善されているか |
| 注意点 | 対象サービス・対象期間・対象基準を確認する | 認証範囲に自分のサービスが含まれるかを確認する |
どちらが優れているというものではありません。
SOC 2はSaaSやクラウドサービスの管理実態を確認する材料として使われることが多く、ISO 27001は組織全体として情報セキュリティを管理する仕組みの有無を見る材料になります。
ただしISO 27001も万能ではなく、認証範囲が限定されている場合があります。
「どの組織、拠点、サービスが対象なのか」を確認する必要がある点は、SOC 2と同じです。
SOC 2 Type IIとISO 27001の両方に対応しているAIサービスもある
主要なAIサービスの中には、SOC 2 Type IIとISO 27001の両方を確認できるものもあります。
たとえば、OpenAI、Anthropic、Google Gemini / Google Cloud系、Cohere、Notionなどは、公式のSecurityページやTrust CenterでSOC 2 Type IIやISO 27001への対応を案内しています。
ただし、ここで注意したいのは、「会社として対応している」ことと「自分が使う製品・プランが対象に含まれている」ことは同じではない、という点です。
同じ会社でも、無料版、個人向け有料版、法人向けプラン、APIでデータの扱いや監査・認証の対象範囲が違うことがあります。
そのため、AIサービスを選ぶときは、会社名だけで判断するのではなく、実際に使う製品、プラン、契約条件まで確認する必要があります。
一般的には、個人向けプランよりも、企業向けのBusiness、Team、Enterprise、API法人契約の方が安全レベルを高く設計しやすいです。
理由は、入力データをAI学習に使わない契約条件、DPA、管理者機能、監査ログ、SSO、サブプロセッサ一覧、SOC 2 Type IIやISO 27001の監査資料などを確認しやすいからです。
ただし、Enterpriseだから何でも無条件に安全というわけではありません。重要なのは、自分が使う製品・プランが監査や認証の対象に含まれているか、入力データが学習に使われない契約になっているか、保存期間や人間レビューの扱いがどうなっているかを確認することです。
AIサービスではISO 42001も見かけるようになった
最近のAIサービスでは、ISO/IEC 42001という言葉も登場するようになりました。
AIマネジメントシステムに関する国際規格で、ISOは「AIマネジメントシステムを確立、実施、維持、継続的に改善するための要求事項を定める国際規格」と説明しています。経済産業省も、AIシステムを安全・安心に利活用するうえでの重要な枠組みとして紹介しています。
SOC 2やISO 27001が主に情報セキュリティや管理体制を見るのに対して、ISO 42001はAI特有の論点に焦点を当てています。
たとえば次のような点です。
- AI利用に伴うリスク評価
- 透明性、人間による監督
- データやモデルの管理
- AIシステムのライフサイクル管理
- 利害関係者への説明責任
ただし、ISO 42001があるからといって「そのAIの回答が常に正しい」「偏りがない」「法的に問題がない」という意味ではありません。
SOC 2と同様、重要なのは対象範囲です。
どのAIシステムが対象か、どの業務プロセスが対象か、どのリスクをどう管理しているか。
そこまで見ないと判断できません。
無料版・個人版・法人版・APIでデータの扱いは変わる
AIサービスで特に気をつけたいのは、同じ会社のサービスでも、プランによってデータの扱いが大きく変わることがある点です。
- 無料版
- 個人向け有料版
- チーム向けプラン
- エンタープライズ版
- API・開発者向けプラットフォーム
この違いによって、入力データが学習に使われるか、人間レビューの対象になるか、保存期間、ログ保持期間、管理者機能、DPAの有無、サブプロセッサ、データ保管地域、削除やエクスポートの機能。
これらすべてが変わることがあります。
たとえばOpenAIは、公式ページでSOC 2 Type 2やISO 27001の対象範囲を製品ごとに説明しています。APIとChatGPTのビジネス製品サービスに関する管理が対象であること、またAPIに送信されたデータは明示的にオプトインしない限りモデルの学習や改善に使われないことなどが記載されています。
GoogleのGemini Apps Privacy Hubでは、保存、削除、人間レビューの扱いが説明されており、人間レビュアーが確認した会話や関連データは通常の削除操作とは別扱いとなり、最大3年保持される場合があると記載されています。
ここで言いたいのは、特定の会社が危険という話ではありません。
重要なのは「会社名だけで判断しない」ことです。
見るべきは、どの製品か、どのプランか、どの契約条件か。
この3点です。
「有名企業のAIだから大丈夫」でも「SOC 2があるから大丈夫」でもなく、自分が使う条件でデータがどう扱われるかを確認する必要があります。
人間レビューの有無は必ず確認する
サービスによっては、品質改善、安全性確認、不正利用対策、サポート対応のために、人間のレビュアーが入力内容や出力内容を確認することがあります。
確認したいのは次の点です。
- 人間レビューが行われる可能性があるか
- レビュー対象になるデータは何か
- レビューされたデータはアカウントと切り離されるか
- どれくらい保存され、削除操作の対象になるか
- フィードバック送信時だけ扱いが変わるか
- 法人プランでは無効化できるか
特に注意したいのは、「履歴オフ」や「削除」が、人間レビュー済みデータにまで及ぶとは限らない点です。
自分の画面から消えたことと、サービス提供者側のすべての保存領域から消えたことは別の話です。
「削除」には複数の意味がある
AIサービスにおける削除は、思ったより複雑です。
「削除」といっても、次のような段階があります。
- 自分の画面から消える
- チャット履歴、アカウントに紐づく履歴から消える
- サーバー側の保存データから消える
- バックアップ、監査ログ、不正利用監視ログから消える
- 人間レビュー済みデータから消える
- 委託先に渡ったデータから消える
これらはすべて別個のことです。
削除ボタンを押したからといって、すべてのデータが即時に完全消去されるとは限りません。
不正利用対策、法令対応、セキュリティ監査、障害調査、請求管理などのために、一定期間ログを保持するサービスも少なくありません。
削除について確認するときは、「削除できますか」ではなく、「何が削除されて何が残るのか」「バックアップやログはいつ消えるのか」「法人契約で削除条件を指定できるか」まで踏み込んで確認するのが理想です。
AIサービスを見るときのチェックリスト

AIサービスを使う前に最低限確認したい項目をまとめます。
| 確認項目 | 見るべきポイント |
|---|---|
| 学習利用 | 入力・出力・アップロードファイルがモデル学習に使われるか |
| サービス改善 | 学習ではなく品質改善や分析に使われるか |
| 人間レビュー | 人間が内容を確認する可能性があるか |
| 保存期間 | 会話・音声・ファイル・ログがどれくらい残るか |
| 削除範囲 | 削除したときに何が消え、何が残るか |
| プラン差 | 無料版・個人版・法人版・APIで条件が違うか |
| 外部委託先 | データが別会社や外部AI基盤に送られるか |
| データ保管地域 | 日本・米国・EUなど、どこに保存されるか |
| 認証・監査 | SOC 2 Type II・ISO 27001などがあるか |
| 監査範囲 | その認証・報告書に自分のサービスが含まれるか |
| 管理者機能 | 組織で利用者・権限・ログを管理できるか |
| 契約条件 | DPAや法人契約を結べるか |
個人利用なら、まず学習利用、保存期間、人間レビュー、削除範囲、ローカル処理かクラウド処理かの5点を優先して見ましょう。
業務利用なら、さらにDPA、サブプロセッサ一覧、SOC 2報告書の対象範囲、管理者機能、監査ログ、データ保管地域、社内の利用許可、機密情報の入力可否が重要になります。
音声入力アプリではさらに注意が必要
音声入力アプリの場合は、AIチャット以上に確認すべきことがあります。
音声は、テキストより本人性が強いデータです。声には話者の特徴が含まれますし、会議や通話の録音には他人の発言も入り込みます。
確認したいのは主に次の点です。
- 音声データがクラウドに送られるか、保存されるか
- 文字起こしテキストが保存されるか
- 要約、文章整形のために別のAIサービスへ送られるか
- ローカル処理とクラウド処理を選べるか
- 学習に使われるか、クラッシュログに本文が含まれないか
- 会議録音時に参加者への通知や同意の仕組みがあるか
特に注意したいのが、「ローカル処理」と書かれているアプリです。
音声認識はローカルでも、要約や文章整形だけ外部のクラウドAIに送る設計のものがあります。
次の表のように、処理段階ごとに確認することが重要です。
| 処理 | 確認すること |
|---|---|
| 音声認識 | ローカルか、クラウドか |
| 文字起こし保存 | 端末内か、サーバー保存か |
| 要約 | ローカルAIか、外部AIか |
| 文章整形 | 端末内処理か、クラウド送信か |
| 同期 | 複数端末同期時にどこへ保存されるか |
私がSOC 2 Type IIやISO 27001を気にするようになったきっかけも、音声入力アプリでした。
音声入力アプリは便利ですが、サーバー型の場合は声データや文字起こしテキストを外部に送る可能性があります。音声入力アプリのリスクと、クラウド型・ローカル処理の使い分けについては、別記事で詳しく整理しています。
関連記事:音声入力アプリは危険?声データをサーバーに送る前に知っておきたいリスクと安全な使い分け
SOC 2がないサービスは使ってはいけないのか
SOC 2 Type IIがないからといって、必ずしも危険なサービスとは限りません。
たとえば、小規模な開発者が作った完全ローカル処理のアプリでは、SOC 2のような企業向け監査を受けていないことがあります。
しかしそのアプリが本当にオフラインで動き、音声もテキストも外部へ送らない設計であれば、クラウド型サービスより安全な場合もあります。
逆に、SOC 2 Type IIがあっても、クラウドにデータを送信、保存し、外部委託先を使い、一定条件でサービス改善に利用するなら、その条件を理解したうえで使う必要があります。
判断軸は「SOC 2があるかないか」だけではありません。
見るべきは次の3点です。
- データが外に出るのか
- 外に出るなら、どう守られるのか
- 外に出ないなら、本当に出ない設計なのか
SOC 2は、2つ目を判断するための強い材料になります。
しかし、1つ目と3つ目については、アプリの設計やプライバシーの説明を直接確認しなければわかりません。
仕事で使うなら「便利だから」だけでは選ばない
個人利用であれば、自分が納得して使う判断ができます。
しかし業務でAIサービスを使う場合は話が変わります。
次のような情報を扱うなら、個人の判断でAIサービスに入力することは避けるべきです。
- 顧客情報、契約内容、売上情報
- 社内会議の内容、採用や人事評価
- 医療、金融、法律に関わる情報
- 未公開の事業計画、ソースコード、設計資料
- 個人情報を含むファイル
業務利用では、会社として利用を許可しているか、法人契約があるか、入力データが学習に使われないか、DPAを結べるか、管理者が利用者を制御できるか、退職者のアカウントを停止できるか、監査ログを確認できるか。
こういった点をあらかじめ確認しておく必要があります。
個人向けには使いやすいAIサービスでも、業務利用には向かないことがあります。
特に無料版や個人版では、法人が必要とする管理機能、契約条件、監査情報が不足している場合が少なくありません。
危険なサイン
AIサービスを調べていて、次のような状態が見られたら慎重になった方がよいです。
- 「安全です」とだけ書かれていて、具体的な説明がない
- SOC 2の対象サービスや対象期間がわからない
- AI学習に使うかどうかが明記されていない
- 「サービス改善に使用する場合があります」の範囲が広すぎる
- 保存期間、人間レビューの有無が書かれていない
- 削除後に何が残るか説明されていない
- サブプロセッサ一覧、DPAがない
- 無料版と法人版の違いが説明されていない
- プライバシーポリシーが古い
- 情報がマーケティング文言だけで、Trust CenterやSecurityページがない
これらが一つあるだけで即アウトとは言いません。
ただ、機密情報や顧客情報を扱うなら、説明が曖昧なサービスは避ける方が安全です。
まとめ:SOC 2 Type IIは重要。でも入口にすぎない
SOC 2 Type IIは、AIサービスやSaaSを選ぶうえで重要な判断材料です。
クラウド上でデータを処理するサービスでは、アクセス管理、ログ管理、インシデント対応、変更管理などが継続的に運用されているかを知る手がかりになります。
ただし、SOC 2 Type IIだけで安心してはいけません。
それは次のことを自動的に保証するものではないからです。
- 入力データが学習に使われないこと
- データが保存されないこと
- 人間が内容を見ないこと
- 削除したら完全に消えること
- 外部委託先に送られないこと
- AIの出力が正しく、公平であること
AIサービスを検討するときは、SOC 2 Type IIを入口にしながら、次の順番で確認するのが現実的です。
- 自分が使う製品やプランが監査・認証の対象か
- 入力データが学習やサービス改善に使われるか
- 人間レビューがあるか
- データがどれくらい保存されるか
- 削除したときに何が消えるか
- 外部委託先やデータ保管地域はどこか
- 業務利用ならDPAや管理者機能があるか
AIサービスは、これからますます便利になっていきます。
音声入力、議事録作成、文章生成、翻訳、分析と、AIに任せる場面は着実に増えていくでしょう。
だからこそ、「便利かどうか」だけでなく「何を預けているのか」を意識する必要があります。
SOC 2 Type IIは、信頼性を判断するための大切な入口です。
でも最終的に見るべきなのは、認証マークではなく、データの流れと契約条件です。
どのデータが送られるのか。
どこに保存されるのか。
何に使われるのか。
誰が見られるのか。
いつ消えるのか。
どのプランでその条件が適用されるのか。
そこまで確認して初めて、そのAIサービスに何を入力してよいか判断できます。
参考情報
参考情報は、2026年5月時点で確認した公式情報をもとにしています。
AICPA & CIMA
SOC 2 – SOC for Service Organizations
https://www.aicpa-cima.com/topic/audit-assurance/audit-and-assurance-greater-than-soc-2
AICPA & CIMA
2017 Trust Services Criteria with revised points of focus 2022
https://www.aicpa.com/resources/download/2017-trust-services-criteria-with-revised-points-of-focus-2022
ISO
ISO/IEC 27001:2022
https://www.iso.org/standard/27001
ISO
ISO/IEC 42001:2023
https://www.iso.org/standard/42001
経済産業省
AIマネジメントシステムの国際規格が発行されました
https://www.meti.go.jp/press/2023/01/20240115001/20240115001.html
OpenAI
Security and Privacy
https://openai.com/security-and-privacy/
OpenAI
Data controls in the OpenAI platform
https://platform.openai.com/docs/guides/your-data
Google
Gemini Apps Privacy Hub
https://support.google.com/gemini/answer/1359496

コメント