AIを使ったサイバー攻撃。ディープフェイクの脅威とは

AIを使ったサイバー攻撃。ディープフェイクの脅威とは
2023.12.27

2023年3月、ソーシャルメディアでドナルド・トランプ前アメリカ大統領の逮捕現場とされる画像が拡散されました。
この画像は画像生成AIサービスを使用して作成されたフェイク(偽物)画像であり、画像をよく見ると不自然な箇所がいくつかありましたが、一瞬ぱっと見る程度では本物と見間違えるような画像でした。
これはディープフェイク(deepfake)という、機械学習で飛躍的に進歩した生成AIがもたらしたものですが、この技術をサイバーセキュリティの攻撃として利用される懸念が高まっています。

セキュリティ無料相談

目次

ディープフェイクとは

ディープフェイクとは「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語です。
以前よりデータ(画像や動画、音声など)を生成する技術はありましたが、ディープラーニングで飛躍的に進化を遂げたAIでデータ(画像や動画、音声など)を生成することが身近となりました。高額なサーバやワークステーションで作成していたものが、今では家庭用のパソコンどころか、簡単な顔画像の入れ替えであればスマートフォンのアプリでもできます。

手軽に画像などの生成ができるようになった一方、利用目的が「騙す・欺く」ことを目的とし始めたことから偽物(フェイク)を悪用することに注目が集まるようになりました。

ディープフェイクを用いたサイバー攻撃の手法

ソーシャルエンジニアリング

ソーシャルエンジニアリングとは、情報機器への侵入などではなく、人間の行動に対する隙や脆弱性を狙った攻撃です。
代表的なものに、電話で他人になりすましてパスワード等を聞き出すものがあります。
電話によるソーシャルエンジニアリングの手口については公然と知られており、多くの企業で教育の機会を設けるなどして一般常識になりつつあります。
しかし、電話の声が自社や協力会社、取引先の関係者であった場合はどうでしょうか。

普段PCトラブル対応でお世話になっている情報システム部門の担当者の声で
「あなたが設定しているPCのログインパスワードは社内のセキュリティポリシーを満たしていない可能性があるので確認させてください」
という電話がかかってきたり、CIOやCISO、情報システム担当の上席の声で「顧客情報が社外から見えてしまっている、すぐにサーバを停止するように」という指示を受けたら正しく判断できるでしょうか。

AIによって、今までは特殊な技術や機材、投資がなければできなかった音声の合成が簡単にできるようになり、フェイク音声によるソーシャルエンジニアリング攻撃が表面化してきました。
実際に、2019年3月に英国会社で、親会社のCEOになりすました声で指示された内容に従い、22万ユーロをだまし取られる事案がありました。

ビジネスメール詐欺(BEC:Business Email Compromise)

ひと昔前のフィッシングメール等のビジネスメール詐欺は、日本語の言い回しに違和感があったり、文字化けしていたりと、メールの内容を確認すれば攻撃であることがわかる内容でした。
しかし、生成AIで作成したメールは日本語の言い回しが巧妙になっているだけでなく、自社の経営者や取引先など、特定の人物におけるメールの書き方の特徴を掴んで、文章でもなりすましができます。
先に記載した、音声によるディープフェイクと組み合わせて攻撃ツールとして利用することにより、一層なりすましのレベルが高くなっています

ディープフェイクを使ったなりすまし
ディープフェイクをつかったなりすましのイメージ

デマ、フェイクニュースの拡散による情報操作

ディープラーニングで生成したネガティブな画像や動画を利用して風評被害を狙う攻撃があります。多くは政治的な利用で、ウクライナ大統領が国民に対して降伏を呼びかけるフェイク動画が話題になりました。
ディープフェイクを用いたデマ、ニュースの拡散が政治的な武器となる可能性が浮き彫りになるとともに、社会的、経済的な攻撃への利用の懸念も高まりました。

企業の経営者が逮捕される画像や、言っていないことを言ったような音声を作成したり、その企業とわかる制服を着た人物が犯罪行為を行っている画像を生成するなど、攻撃の手法は無数にあります。
そうした実情から、中国ではいち早く2023年にディープフェイク技術を利用した虚偽情報の発信などを規制する規定が施行されました。

ディープフェイクを用いたサイバー攻撃の対策

現在でも見分けがつきにくいディープフェイクですが、技術の進展は続き、本物と見分けがつかない画像やデータが簡単に誰でも作成できる時代となりつつあります。
それに対するディープフェイクを検知する技術も研究開発が進められていますが、生成する側と検知する側でのいたちごっことなっています。
法整備が追いつかない現在、対策の中心は教育などの人的対策が中心となります。

社員教育

社内ルールの周知

ディープフェイクによる音声やメールであっても、特定の個人の記憶や知識を完全に再現することはできません。
急を要する要件で連絡があり、本人かどうか疑わしい場合は、本人しか知りえない内容、例えばオフィスのレイアウトや、直近で会話した内容などで本人確認をすることや、電話を折り返すなど、一般的な振り込め詐欺の対策と同様の確認をすることが有効です。
また、どれだけ急いでいても多額の資金移動や、基幹業務に影響するシステム操作などは、社内ルールに沿って対応することを社員全員に周知し、例外を認めないことが重要です。

ALSOK 標的型攻撃メール訓練

ALSOKの標的型攻撃メール訓練サービスでは、お客様とお打ち合わせのうえメールの文面をカスタマイズで作成できます。
生成AIが作成するよりも高度ななりすまし文面で社員のビジネスメール詐欺に対する訓練を実施できます。
ひと昔前の怪しさの残る文面の標的型メール訓練ではなく、現実に起こりうる高度な攻撃を体験することにより、社員に脅威を実感してもらうことができます。
また、メールフィルタリングでは防ぐことができない新たな脅威「クイッシング(QRコードを使ったフィッシング)」にも対応可能です。
参考コラム:「そのQRコード危険かも?QRコードフィッシング(クイッシング)の手口とその対策」

コンティンジェンシープラン(※)の作成

ディープフェイクによる情報操作や風評被害は企業にとって身近で、いつ発生してもおかしくない時代となり、発生すれば企業にとって大きな損失となる可能性があります。
しかし、これだけ大きなリスクでありながら、企業側で防ぐことは困難です。
こうしたリスクをセキュリティインシデントと認識し、発生時のコンティンジェンシープランを作成して備えておくことが被害の拡大防止に有効です。

(※)コンティンジェンシープランとは、不測の事態が発生した場合を想定し、被害や損失を最小限に抑えることを目的とした対策や行動計画を定めたものです。

まとめ

生成AIは、娯楽やアートの分野で利用が進んでいる一方、ディープフェイクの悪用といった個人や企業に対するリスクも同時に増えていく可能性があります。
技術的な対策や法整備が整っていない現在、個人のITリテラシに頼らず負えない状況となっています。
基本的なソーシャルエンジニアリングの教育について再評価し、ディープフェイクという新たな脅威を付け加えた教育でリスク低減を図りましょう。

セキュリティ無料相談