記事公開日
最終更新日
Azure OpenAI Service におけるデータの取り扱いについて

システムソリューション営業本部の安藤です。
現在QESではAzure OpenAIおよびOpenAI社のChatGPT に関する研究を進めております。
多くの企業において、実運用ではプロンプトやカスタムモデルで用いるデータの取り扱いやAzureの仕組みとしての漏洩対策等についての確認が必須になると思います。
今回はAzure OpenAI Serviceでのデータの取り扱いや公開されているセキュリティポリシー等について以下にまとめました。一部和訳しておりますので、詳細は原文をご確認下さい。
データの保持方法と顧客管理は?
これについてはオプトアウトできるケースもあるようです。
Microsoftが不正使用監視を変更するお客様の要求を承認した場合、Microsoftは、不正使用監視がオフに設定されている承認済みのAzureサブスクリプションに関連するプロンプトと完了を保存しません。この場合、サービスリザルトストアにプロンプトとコンプリーションが静止状態で保存されないため、人間によるレビュープロセスは不可能であり、実行されません。
また、プロンプトやレスポンスなどは 30 日間保管され、誤用・悪用されていないかシステム・認定された人間による監視が行われています。これについてはオプトアウトを申請できるケースもありますので、要件に応じ確認/検討されることをおすすめします。
実はこれらの情報はAzure OpenAIの申請フォームにリンクが記載されているようです。
申請される方は確認と利用者への周知をしましょう!(自戒を込めて)
弊社では取り急ぎGPTを活用した社内チャットボットを導入したいお客様向けにサービスを開始しています。
ご興味のある方はお問い合わせくださいませ。

Azure OpenAIはAzureでは「Cognitive Services」の一部に分類されています。
QESでは過去にCognitive関連のブログも投稿しておりますので、ご興味がある方はご覧になってください。
Cognitive関連ブログはこちら
※このブログで参照されている、Microsoft、Azure、Azure OpenAI、PowerAppsその他のマイクロソフト製品およびサービスは、米国およびその他の国におけるマイクロソフトの商標または登録商標です。
※その他の会社名、製品名は各社の登録商標または商標です。
現在QESではAzure OpenAIおよびOpenAI社のChatGPT に関する研究を進めております。
多くの企業において、実運用ではプロンプトやカスタムモデルで用いるデータの取り扱いやAzureの仕組みとしての漏洩対策等についての確認が必須になると思います。
今回はAzure OpenAI Serviceでのデータの取り扱いや公開されているセキュリティポリシー等について以下にまとめました。一部和訳しておりますので、詳細は原文をご確認下さい。
モデルの再トレーニングにユーザーのデータは使用されない
詳細については、Azure OpenAI のデータ、プライバシー、セキュリティのガイドを参照してください。Azure OpenAIのデータ保管について
こちらに記載されていました。
Data, privacy, and security for Azure OpenAI Service - Azure Cognitive Services | Microsoft Learn
Data, privacy, and security for Azure OpenAI Service - Azure Cognitive Services | Microsoft Learn
データの保持方法と顧客管理は?
- トレーニング、バリデーション、トレーニング結果のデータ。Files APIにより、お客様はモデルの微調整を目的としたトレーニングデータをアップロードすることができます。このデータは、リソースと同じリージョン内で、Microsoft Managedキーによって静止時に暗号化され、AzureサブスクリプションとAPI認証情報によって論理的に分離されたAzure Storageに保存されます。アップロードされたファイルは、DELETE API操作によってユーザーが削除することができます。
- OpenAIモデルのファインチューニング Fine-tunes APIを使用すると、Files API経由でサービスにアップロードしたトレーニングデータに基づいて、お客様独自の微調整されたバージョンのOpenAIモデルを作成することができます。学習されたFine-tunedモデルは、同じリージョンのAzure Storageに保存され、静止時には暗号化され、AzureサブスクリプションとAPI認証情報で論理的に分離されます。微調整されたモデルは、DELETE APIオペレーションを呼び出すことで、ユーザーによって削除することができます。
プロンプトやレスポンスなどは 30 日間保管され、誤用・悪用されていないかのシステム・認定された人間による監視が行われている
- リクエスト&レスポンスデータは、Azure OpenAI Serviceによって最大30日間、一時的に保存されることがあります。このデータは暗号化され、(1)障害発生時のデバッグ目的、(2)不正使用や誤使用のパターンの調査、(3)不正使用や誤使用のフラグが立ったプロンプトや完了の使用によるコンテンツフィルタリングシステムの改善のために、権限を与えられたエンジニアのみがアクセスできます。
これについてはオプトアウトできるケースもあるようです。
お客様は、ロギングと人間によるレビューのプロセスをオプトアウトすることができますか?
一部のお客様は、機密性、高度な機密性、または法的に規制された入力データの処理を伴うが、有害な出力および/または誤用の可能性が低いユースケースで Azure OpenAI Service を使用したいと考えるかもしれません。これらのお客様は、内部ポリシーまたは適用される法的規制により、上記のような不正使用検出のためのデータ処理をマイクロソフトに許可することを望まない、または許可する権利がないと結論付けることができます。このような懸念に対処するため、マイクロソフトは、追加のLimited Accessの資格基準を満たし、特定の使用事例を証明するお客様に対し、Azure OpenAIコンテンツ管理機能の変更を申請することを許可します。Microsoftが不正使用監視を変更するお客様の要求を承認した場合、Microsoftは、不正使用監視がオフに設定されている承認済みのAzureサブスクリプションに関連するプロンプトと完了を保存しません。この場合、サービスリザルトストアにプロンプトとコンプリーションが静止状態で保存されないため、人間によるレビュープロセスは不可能であり、実行されません。
まとめ
Azure OpenAIはAzureの各種サービスを用いてセキュアに構築されているようです。また、プロンプトやレスポンスなどは 30 日間保管され、誤用・悪用されていないかシステム・認定された人間による監視が行われています。これについてはオプトアウトを申請できるケースもありますので、要件に応じ確認/検討されることをおすすめします。
実はこれらの情報はAzure OpenAIの申請フォームにリンクが記載されているようです。
申請される方は確認と利用者への周知をしましょう!(自戒を込めて)
弊社では取り急ぎGPTを活用した社内チャットボットを導入したいお客様向けにサービスを開始しています。
ご興味のある方はお問い合わせくださいませ。

Azure OpenAIはAzureでは「Cognitive Services」の一部に分類されています。
QESでは過去にCognitive関連のブログも投稿しておりますので、ご興味がある方はご覧になってください。
Cognitive関連ブログはこちら
※このブログで参照されている、Microsoft、Azure、Azure OpenAI、PowerAppsその他のマイクロソフト製品およびサービスは、米国およびその他の国におけるマイクロソフトの商標または登録商標です。
※その他の会社名、製品名は各社の登録商標または商標です。