AI利用ポリシー(ルール)に追加するべきセキュリティの観点
企業における生成AIの活用が急速に広がる中、基本的な利用ルールやポリシーの整備を行っている企業が多くあります。しかし、技術の進歩と利用シーンの多様化に伴い、情報セキュリティの観点から新たなリスクが浮上しており、既存のルールだけでは対応しきれない課題が見えてきました。本稿では、すでに生成AI利用の基盤ルールを持つ企業に向けて、情報セキュリティをさらに強化するために追加すべき具体的な施策について解説します。
目次
既存ルールが正常に運用できているか見直す
多くの企業で策定されている生成AI利用ルールを改めて確認してみると、「機密情報は入力しない」という一文で情報セキュリティ対策を済ませていないでしょうか。確かにこの原則は重要ですが、実際の業務現場では「何が機密情報に該当するのか」「どの程度の情報なら入力しても問題ないのか」といった具体的な判断に迷うケースが頻繁に発生しています。
また、従業員一人ひとりの機密情報に対する認識レベルにはばらつきがあり、単純な禁止事項だけでは実効性のある対策にならないのが現実です。営業担当者が顧客との商談内容を要約してもらおうとした際、顧客名を伏せれば問題ないと判断するか、商談内容自体が機密情報だと判断するかは、個人の経験や知識によって大きく異なります。このような曖昧さを残したままでは、意図しない情報漏洩のリスクを完全に排除することはできません。
さらに、生成AIサービスの機能が高度化し、単純なテキスト生成から複雑な分析や提案まで幅広い用途で活用されるようになった今、従来の一律的な制限では業務効率化の機会を逸してしまう可能性もあります。必要なのは、リスクレベルに応じたより詳細で実践的なガイドラインの整備です。
考慮すべき観点
データ分類と処理レベルの細分化
既存のルールでは「機密情報は入力しない」という大枠の規定があることが一般的ですが、実際の業務では情報の機密度は単純に機密か非機密かの二つに分けることはできません。顧客情報、技術仕様、財務データ、人事情報など、それぞれ異なるリスクレベルと保護要件を持つため、より詳細な分類基準が必要です。
データの機密度を複数のレベルに分類し、各レベルに応じた生成AI利用可否の判断基準を設定することが重要です。例えば、公開済みの情報や一般的な業界知識については制限なく利用可能とする一方、個人を特定できる情報や競合他社との差別化要因となる技術情報については、仮名化や要約化を経た後でなければ利用を認めないといった段階的な管理が求められます。
さらに、同じデータであっても利用目的によってリスクレベルが変わることも理解しておく必要があります。社内での業務効率化を目的とした利用と、外部向けの資料作成での利用では、情報漏洩時の影響度が異なるため、目的別の利用制限も併せて規定する必要があります。
意図せず機密情報を入力してしまうリスク
生成AIの性能を最大限に引き出すためのプロンプト設計技術が注目されていますが、セキュリティの観点では新たなリスクを生み出す可能性があります。詳細な指示や具体例を含むプロンプトは、意図せずして機密情報を含んでしまうリスクが高く、また、複雑なプロンプトほど予期しない出力を生成する可能性も増大します。 プロンプト作成時のセキュリティガイドラインとして、機密性の高い業務フローや固有名詞の使用を最小限に抑え、一般化された表現を用いることが重要です。具体的な良い例と悪い例を示すことで、従業員の理解を深めることができます。
悪いプロンプトの例:
「弊社のA製品の販売戦略について、競合のB社製品との差別化ポイントを踏まえて、来月の営業会議用の資料を作成してください。昨年度の売上は1億2千万円で、主要顧客はC商事とD物産です。」
良いプロンプトの例:
「新製品の販売戦略について、一般的な差別化手法を踏まえた営業資料の構成案を提案してください。製品の特徴や市場動向の分析方法についても含めてください。」
悪い例では、具体的な製品名、競合企業名、売上数字、顧客名といった機密情報が含まれており、これらの情報が生成AIサービスの学習データとして利用される可能性があります。良い例では、同じ目的を達成しながらも、機密情報を含まない一般的な表現を使用しています。資料のすべてをAIで作成せず、一般的な情報で資料を作成し、機密情報はあとで追記する工夫が必要です。
システム面での対策として、DLP(Data Loss Prevention)が有効です。DLPの活用では、入力されたテキストに個人情報や機密情報が含まれている場合に自動的に検知し、送信をブロックする機能を生成AIサービスへの通信に適用できます。クレジットカード番号、社会保険番号、社内の顧客管理番号などの定型的なパターンから、独自の機密用語まで幅広く検知対象に設定することで、うっかりミスによる情報漏洩を防ぐことができます。
出力結果の取り扱いと検証プロセス
生成AIの出力には、学習データに含まれていた第三者の著作物や機密情報が意図せずに含まれる可能性があります。既存のルールでは入力時の注意事項に焦点が当てられがちですが、出力結果の取り扱いについても同様に厳格な管理が必要です。
出力結果を業務で活用する前に、以下の確認プロセスを確立すべきです:
- 第三者の知的財産権侵害の可能性がないか
- 競合他社の機密情報が含まれていないか
- 事実関係に誤りがないか
- 自社の価値観や方針に反する内容がないか
特に、技術文書や市場分析レポートの作成において生成AIを活用する場合は、出力内容の事実確認と権利関係の調査を必須としなければなりません。 また、生成AIの出力をそのまま外部に提供することは、自社の知的財産権の主張を困難にする可能性もあります。出力結果を基に人間が加工や編集を行い、最終的な成果物には必ず人間の判断と責任を明確に示すプロセスを組み込むことが重要です。
アクセス権限とログ管理の強化
ユーザーごとの利用権限を細かく設定し、職務に必要な範囲に限定した生成AIサービスへのアクセスを認める仕組みも重要です。営業部門にはプレゼンテーション作成が得意な生成AIを、コード生成が得意な生成AIのアクセスは開発部門に限定するといった、部門別・職種別の権限管理をシステムで制御することで意図しない利用による情報漏えいを防ぐ助けとなります。
また、生成AIサービスの利用状況を詳細に記録し、セキュリティインシデントが発生した際の原因究明と影響範囲の特定を可能にする仕組みが必要です。単純な利用許可制度だけでなく、誰がいつどのような目的で生成AIを利用したかを追跡できるログ管理体制を構築すべきです。
IT資産管理システムやWebフィルタリングシステムにより、従業員の所属部署、役職、業務内容に応じて自動的に適切な権限を付与し、人事異動や退職時には即座にアクセス権を更新する仕組みが重要です。これにより、権限管理の手動作業を削減しながら、セキュリティレベルを維持できます。
インシデント対応と継続的改善
生成AI利用に関わるセキュリティインシデントが発生した場合の対応手順を明文化し、関係部署との連携体制を確立する必要があります。従来のシステム障害とは異なり、生成AIに関するインシデントでは、データの機密度や影響範囲の特定が複雑になる可能性があります。
インシデント発生時の対応手順として、以下のステップを体系化しておくことが重要です:
- 問題となったプロンプトや出力結果の即座の保全
- 影響を受けた可能性のあるデータ範囲の特定
- 関係するステークホルダーへの迅速な連絡
- 類似のインシデント再発防止策の検討と実装
- 必要に応じた関係当局への報告
定期的なリスク評価と対策の見直しも欠かせません。生成AI技術の進歩は目覚ましく、新たな機能の追加や利用方法の変化に伴って、これまで想定していなかったリスクが顕在化する可能性があります。四半期ごとのリスク評価会議の開催や、年次でのポリシー見直しを制度化することで、常に最新の脅威に対応できる体制を維持することが必要です。
まとめ
生成AIの企業利用における情報セキュリティ対策は、基本的なルール策定から、より具体的で実用的な施策への発展段階に入っています。データ分類の細分化、プロンプトセキュリティの確保、出力結果の適切な管理、アクセス制御の強化、第三者サービスのリスク評価、そしてインシデント対応体制の整備は、いずれも既存のルールを補完し、実際の業務における安全な生成AI活用を実現するために不可欠な要素です。
特に重要なのは、これらの対策をシステム面で自動化し、従業員の負担を軽減しながらセキュリティレベルを向上させることです。人的な判断に依存する部分を最小限に抑え、技術的な仕組みによってリスクをヘッジすることで、組織全体での一貫したセキュリティ対策が可能になります。
これらの追加施策は、生成AI利用の利便性を損なうものではなく、むしろ安心して活用できる環境を整備することで、組織全体の生産性向上に寄与するものです。技術の進歩に合わせて継続的にルールを更新し、実効性のあるセキュリティ対策を維持していくことが、企業の競争力強化と信頼性確保の両立を可能にします。


