あなたは電話で親しい人の声を聞いたら、その人だと信じますか?
しかし、その声がAI(人工知能)によって作られた偽物だったらどうでしょうか。
そんな恐ろしい詐欺が世界中で増えています。
AI音声詐欺と呼ばれるこの手口は、音声データを元に特定の人物の声を学習させ、その知り合いに電話をかけてだますものです。
例えば、高齢者を標的としたオレオレ詐欺で、子どもや孫の声でお願いされてしまえば、だまされてしまう人も出てくることでしょう。
実際に、イギリスでは約2600万円もの大金がAI音声詐欺によって奪われた事件が発生しました。
日本でもオンライン音声通信が増加傾向にあり、詐欺師がAI音声をクローンするのに必要なデータはたった3秒という衝撃的な事実が明らかになりました。
この記事では、AI音声詐欺の実例を紹介しながら、AI犯罪の危険に警鐘を鳴らします。
また、AI音声詐袺から身を守るための対策もお伝えします。
あなたやあなたの家族が被害に遭わないように、ぜひ最後までお読みください。
事例1
世界で初めてと見られるAI音声詐欺の事例を見てみましょう。
この事件は2020年9月にイギリスで発生しました。
被害にあったのは、エネルギー企業の社長です。
彼はある日、自分の上司だと名乗る男から電話を受けました。
その声は上司のものとそっくりで、何の疑いも持ちませんでした。
男は、ドイツの子会社が緊急に資金を必要としていると言い、社長に2600万円相当のユーロを送金するように指示したのです。
社長はそのまま指示通りに送金しましたが、後になって上司から連絡がないことに不審に思いました。
そこで上司に電話をかけると、彼は何も知らないと言ったのです。
そこで初めて社長はだまされたことに気づきました。
しかし、すでに遅く、送金したお金は回収できませんでした。
後の調査で判明したことは、詐欺師はAIを使って上司の音声をクローン化し、電話で社長を騙したのです。
このような手口は、音声認証や暗証番号などのセキュリティ対策をすり抜けることができます。
また、親しい人や信頼できる人の声だと思えば、疑うことも少なくなります。
AI音声詐欺は、今後もさらに巧妙化していく可能性があるのです。
事例2
日本でもオンライン音声通信が増加傾向にあり、AI音声詐欺のリスクが高まっています。
マカフィーがグローバルで実施したAI音声詐欺に関する調査によると、日本では10人に1人がAI音声詐欺のメッセージを受け取り、そのうちの77%はお金を失ったことが分かりました。
詐欺師がAI音声をクローンするのに必要なデータはたった3秒という衝撃的な事実も明らかになりました。
これだけで、オリジナルの音声と85%一致するクローンを作成できたそうです。
テストをした成人の82%がクローン化された音声を本物と区別できる自信がないと回答しています。
2020年12月には、中国で友人の顔と声を複製して振り込め詐欺を行った事件が発生しました。
犯人はAIを使って被害者の友人の顔と声を複製してなりすまし、およそ8500万円をだまし取ったというのです。
被害者は微信(WeChat)で連絡してきた友人とビデオ通話を行った際、「知人が入札の保証金として約8500万円を必要としている。会社の法人口座を利用して口座振替をさせてほしい」と伝えられ、キャッシュカードの番号を伝えてしまいました。
だが、ビデオ通話で話していた相手は、犯罪者がAIを使って友人の顔と声を複製した偽者でした。
事例3
2021年7月には、アラブ首長国連邦(UAE)で発生した大規模な詐欺事件で、AIによる音声クローンが用いられたことが分かりました。
UAEのある銀行の支店長は、聞き覚えのある声の男からの電話を受けました。
その声は銀行内部の知り合いのものとそっくりで、何の疑いも持ちませんでした。
男は、銀行内部から機密情報を得たと言い、支店長に約1億円相当のドルを送金するように指示しました。
支店長はそのまま指示通りに送金しましたが、後になって知り合いから連絡がないことに不審に思いました。
そこで知り合いに電話をかけると、彼は何も知らないと言いました。
そこで初めて支店長はだまされたことに気づきました。
しかし、すでに遅く、送金したお金は回収できませんでした。
後の調査で判明したことは、詐欺師はAIを使って知り合いの音声をクローン化し、電話で支店長を騙したのです。
このような事例からわかるように、AI音声詐欺は国境を越えて発生しており、日本でも被害が拡大する恐れがあります。
また、AI音声詐欺は、親しい人や信頼できる人の声だけでなく、有名人や権威者の声を使ってだますことも可能です。
例えば、政治家や芸能人、企業のトップなどの声を使って、支持者やファン、従業員などに寄付や投資を求めたり、情報や意見を聞き出したりすることができます。
これは、社会的な影響力や信頼性を悪用した詐欺であり、個人だけでなく組織や社会にも深刻な被害をもたらす可能性があります。
AI音声詐欺から身を守るために
AI音声詐欺から身を守るためには、どのような対策が必要でしょうか。
マカフィーが提案する4つの対策を紹介します。
子供や家族、親しい友人たち全員で合言葉を作り、共有しておくこと
特に、シニアの方は家族が電話、メール、メッセージで助けを求めてきたら、必ず合言葉を聞くようにしましょう。
合言葉がない場合は、相手が本人であると信じないことです。
発信元を疑うこと
登録している電話番号からかかってくるのであれば信頼できますが、知らない番号の場合は疑ってかかってください。 スマホが壊れた、盗まれた、今は違うところにいるなど、いろいろな言い分を述べてきますが、まずは落ち着いて、「今手が離せないから数分後にまた連絡して」と電話を切りましょう。
そして、本人にこちらから電話をしたり、家族に相談するなどして情報を確認することが重要です。
また、音声だけでなく、ビデオ通話でも相手の顔や表情が不自然だったり、背景や環境音がおかしかったりする場合は注意しましょう。
音声データのシェアは慎重にすること
SNSで音声(動画)を公開する際、つながっている人が多いほど、音声を共有するリスクが高まります。
音声(動画)を公開する場合は、プライバシー設定を確認し、信頼できる人だけに限定しましょう。
また、音声(動画)の内容も注意しましょう。
個人情報や機密情報を含んだり、感情的になったりするような音声(動画)は避けましょう。
最後に、個人情報保護サービスを利用すること
個人情報保護サービスとは、個人情報がダークウェブに流れた場合に通知するサービスなどのことです。
ダークウェブとは、一般的なインターネットではアクセスできない秘匿性の高いネットワークのことで、サイバー犯罪者が個人情報や違法な商品を売買する場所です。
個人情報保護サービスを利用することで、自分の個人情報がダークウェブに流出した場合に早期に対処することができます。
また、パスワードや暗証番号などのセキュリティ情報も定期的に変更しましょう。
まとめ
AI音声詐欺は、今後も発展していく可能性が高い危険な犯罪です。
本人そっくりの声でだまされることは、誰にでも起こりうることです。
しかし、知っておくべきことは、AI音声詐欺は完全に防ぐことはできないかもしれませんが、対策をとることで被害を減らすことはできるということです。
この記事で紹介した対策をぜひ実践してみてください。
また、家族や友人と情報共有し、互いに注意し合うことも大切です。
AI音声詐欺に遭わないように、常に警戒心を持ちましょう。
【参考元リンク】
「電話の相手、本当に本人?」“AI音声詐欺”増加の恐れ、元公安捜査官が解説 | 元公安捜査官が教える「見抜く力」 | ダイヤモンド・オンライン https://diamond.jp/articles/-/324341
AI使った仮想通貨取引うたい詐欺か 容疑の4人を逮捕:朝日新聞デジタルhttps://www.asahi.com/articles/ASP7D3CQMP7DOIPE003.html
AIで声を合成する「ディープ・ボイス」を用いた詐欺犯罪の脅威 | Forbes JAPAN(フォーブス ジャパン) https://forbesjapan.com/articles/detail/43847
コメント