生成AIのリスクと情報セキュリティ対策|企業が今すぐ取り組むべきこと

生成AI
更新
注目ポイント
💡

生成AIによるリスク

生成AIのリスクには、誤情報の生成や拡散、著作権侵害の懸念、個人情報の混入によるプライバシー侵害、悪用によるフィッシングや詐欺の高度化などがあります。また、AIの出力を無条件に信頼することで誤った判断につながる危険もあります。

AI技術の急速な発展は、業務効率化から医療診断、自動運転まで、あらゆる産業に変革をもたらしています。その一方で、生成AIの普及とともに、情報漏えいや誤情報拡散といった「AIリスク」への注目も高まっています。2023年11月(米国時間)には、日本を含む18カ国が共同で「セキュアなAIシステム開発のためのガイドライン」を発表しました。

このガイドラインはAIを「開発する側」向けの指針が中心です。では、生成AIを業務で「利用する側」の企業は、何を気にかければよいのでしょうか。本記事では、AIリスクの種類と実践的な対処法を整理します。

セキュリティ無料相談

目次

生成AIの業務利用の現状

ChatGPTの登場を契機に、生成AIの業務活用は製造業・金融・保険業を中心に広がっています。挨拶文や社内文書の作成、レポートの要約、プログラミング補助など、用途は多岐にわたります。生産性や創造性を高める可能性がある反面、利用には相応の責任が伴います。「使いこなす力」と同様に、「リスクを理解する力」が企業に求められています。

生成AIの業務利用で生じるAIリスク

個人情報・機密情報の漏えいリスク

AIサービスに個人情報や企業の機密情報を入力すると、情報漏えいのリスクが発生します。多くのAIサービスは入力データを学習や改善に利用したり、サーバーに保存したりする可能性があります。氏名・住所・クレジットカード番号などの個人情報や、営業秘密・顧客データ・技術仕様書が第三者に渡れば、プライバシー侵害、経済的損失、競争力の低下、法的責任といった深刻な影響が生じます。また、AIサービスのデータベースへのサイバー攻撃が成功した場合、大規模な情報漏えい事件に発展するリスクもあります。

ハルシネーションによる誤情報リスク

生成AIの回答は流暢で説得力があるため、誤った情報を正確な事実として受け入れてしまう危険があります。これは「ハルシネーション」と呼ばれる現象で、存在しない情報を創作したり、古い情報を最新のものとして提示したりすることがあります。医療・法律・金融などの専門分野では、誤情報にもとづく判断が健康被害や法的トラブル、経済的損失を招きかねません。また、報告書や学術資料の作成で誤情報を引用すると、組織の信頼性や専門性が問われる事態にもなりえます。

知的財産権・著作権侵害のリスク

AIが生成するコンテンツが既存の著作物に類似している場合、意図せず著作権を侵害するリスクがあります。生成AIは大量の著作物を学習しているため、出力される文章・画像・コード・音楽が既存の作品と酷似することがあります。特定の作家の文体を模倣した文章や、既存イラストに類似した画像を商用利用すれば、著作権者から法的措置を受ける可能性があります。AIが生成したコンテンツの著作権の帰属も不明確なケースが多く、権利関係のトラブルが生じやすい点にも注意が必要です。

AIリスクへの対処法

社員教育でリテラシーを高める

DXサービスを展開する株式会社ギブリーの調査では、生成AIの台頭を受けてデジタル研修のカリキュラムを変更済み、または変更予定の企業が6割以上にのぼっています。また、IPA(独立行政法人 情報処理推進機構)の「ITパスポート試験」でも、2024年度からAI関連の問題が出題されるようになりました。

社員向けのAI教育では、生成AIの仕組みや使い方だけでなく、次の3点を盛り込むことが重要です。

  • 機密情報・個人情報を入力しないこと
  • 著作権侵害に関する知識と注意点
  • 出力内容の正確性を自ら検証・判断する習慣

(出典:株式会社ギブリー「新入社員研修のデジタル(IT/DX)領域への対応に関する意識・実施調査」)

社内向け生成AIサービスの活用

学習データの精度の問題、著作権リスク、情報漏えいリスクを鑑みると、「生成AIを使わない」という選択肢もあります。しかし、かつて電話やインターネットなしでは業務が回らなくなったように、AIなしでは業務が成り立たない時代が来ることも想定されます。そうなれば「AIを使わないリスク」が経営課題になります。

こうした状況を見越して、外部に情報が出ない閉じた環境で動作する「社内用生成AI」の導入が進んでいます。個人の役職・役割に応じた回答を返す「個人特化AI」の開発も各所で検討されており、今後ますます普及が見込まれます。

(出典:パナソニック ホールディングス株式会社 「パナソニック コネクトのAIアシスタントサービス「ConnectAI」を自社特化AIへと深化」)

URLフィルタリングによる利用制限

社内向け生成AIは情報漏えい対策として有効ですが、導入コストがかかります。無料のパブリックな生成AIから生じるリスクを排除したい場合は、特定のWebサービスへのアクセスを制御する「Webフィルタリング」が現実的な選択肢です。全社一律でのアクセスブロックだけでなく、承認された人物やグループのみにアクセスを許可する設定ができると、柔軟な運用が可能になります。

IT資産管理ツールにWebフィルタリング機能が統合されている場合、端末やアカウントの可視化と合わせてAI利用を一元的に管理できます。「誰がどのAIサービスにアクセスしているか」を把握することは、シャドーAI(管理外でのAI利用)を防ぐ上でも効果的です。

ALSOKがおすすめする製品

ALSOKではURLフィルタリング機能を備えた2製品を取り扱っています。

ALSOK UTM運用サービス

UTMは外部からの攻撃への対策製品というイメージが強いですが、Webフィルタリング機能も搭載しています。各PCのIPアドレスやMACアドレスを指定して個別にフィルタを設定することも可能です。

ALSOK IT資産管理

ALSOK IT資産管理のWebフィルタリング機能では、全社的なフィルタに加え、部署・グループ単位でのきめ細かなアクセス制御が可能です。「特定部署のみ生成AIへのアクセスを許可する」といった設定もでき、社内のAI利用状況の把握にも役立ちます。また、ALSOKがサービス運用をサポートするため、IT担当者の負担を抑えながら運用できます。電話での問い合わせは24時間365日受け付けており、設定変更もALSOKが代行可能です。

よくある質問(Q&A)

Q. 無料の生成AIサービスに仕事の資料を入力してもよいですか?

A. 原則として、機密情報・個人情報を無料のパブリックAIに入力することは避けるべきです。多くのサービスでは入力内容が学習データとして利用される場合があります。社内ガイドラインを整備した上で、入力可能な情報の範囲を明確にしましょう。

Q. AIが生成した文章をそのまま使っても著作権上の問題はありませんか?

A. AIの生成物が既存の著作物に類似している場合、著作権侵害となる可能性があります。商用利用の際は必ず人の目で内容を確認し、既存の著作物との類似性がないか確かめることが重要です。

Q. 小規模な会社でも生成AIのセキュリティ対策は必要ですか?

A. 規模に関わらず必要です。むしろ、IT専任担当者が少ない中小企業ほど、Webフィルタリングや運用サポート付きのIT資産管理ツールを活用することで、少ない工数でリスクを管理できます。

Q. 生成AIのハルシネーションを防ぐ方法はありますか?

A. 完全に防ぐことは難しいのが現状です。出力内容を必ず担当者が確認・検証するプロセスを設けること、そして重要な判断に関わる情報は一次情報を必ず参照することが基本的な対策となります。

まとめ

生成AIは社員の生産性や創造性を高める可能性を持つ一方、情報セキュリティや著作権など複数のAIリスクへの対応が不可欠です。社員のリテラシー向上と社内用AIが普及するまでの間、制限なく生成AIを使わせることは大きなリスクになりかねません。まずはWebフィルタリングやIT資産管理ツールによるシステム的な制御を検討してみてはいかがでしょうか。

セキュリティ無料相談