先日、私のスマホに息子を名乗る電話がかかってきました。声も話し方もそっくりで、一瞬「本物だ」と思いました。結果的に詐欺だと気づけましたが、正直、心臓が止まるかと思いました。

今、AIの進化で「声」「顔」「動画」が簡単に偽造できる時代になっています。従来の詐欺は「怪しい日本語」や「不自然な話し方」で見抜けることもありました。でもAI詐欺は、そうした手がかりがほとんどありません。

AIを悪用した最新の詐欺手口と、お金をかけずにできる具体的な防衛策をまとめました。

この記事でわかること
  • AIで声・顔・動画を偽造する詐欺の具体的な手口
  • AI詐欺を見抜くための5つのチェックポイント
  • 今日から無料でできる4つの防衛策

AIが詐欺に使われる時代になった

AIの進化によって、「偽物を作るコスト」が一気に下がりました。以前は映画の特殊効果でしかできなかったことが、今はスマホ1台でできてしまいます。

具体的には、こんなことが可能になっています。

  • 音声クローン:数秒〜数十秒の音声サンプルから、その人そっくりの声を生成できる。
  • ディープフェイク動画:写真1枚から、本人が話しているような動画を作れる。
  • AI画像生成:実在しない人の顔写真を、本物と見分けがつかないレベルで作れる。

これらの技術自体は便利なものです。でも、悪意を持った人が使うと、とても巧妙な詐欺の道具になります。

警察庁の発表によると、2025年の特殊詐欺の被害額は1,414億円にのぼり、過去最悪を記録しました。SNS型の投資・ロマンス詐欺を合わせると、被害総額は3,241億円に達しています(警察庁 特殊詐欺の認知・検挙状況)。その中でも、AIを活用したと見られる手口が急増しています。

ポイント

「怪しい日本語」「不自然な話し方」で見抜ける時代は終わりました。AIが作る偽物は、プロでも判別が難しいレベルに達しています。

音声クローン詐欺|家族の声が偽造される

特に身近で危険なのが、家族の声をAIで偽造する「音声クローン詐欺」です。

従来のオレオレ詐欺は、犯人が「風邪で声が変わった」と言い訳するのが定番でした。でもAI音声クローンを使えば、その言い訳すら不要になります。

どうやって声を手に入れるのか

犯人が声のサンプルを手に入れる方法は、意外なほど簡単です。

  • SNS(Instagram、Facebook、TikTok)に投稿した動画
  • YouTubeにアップした動画
  • 留守番電話のメッセージ
  • 間違い電話を装って録音する手口

正直ゾッとするのですが、たった3秒の音声があれば、AIは85%以上の精度でその人の声を再現できます。しかも、焦った声、泣いている声、パニック状態の声といった感情の抑揚まで合成できるので、「本当に困っている」と信じ込ませる力があります。

実際にどう使われるか

典型的な手口はこうです。

犯人がSNSからお子さんの声を入手する。

AIでお子さんの声を使い「お母さん、事故を起こしてしまった。すぐにお金が必要」という音声を生成する。

その音声を電話越しに流す。焦った親は本人の声だと信じてしまう。

声がそっくりだと、「息子(娘)の声に間違いない」と確信してしまいます。冷静に判断するのは本当に難しいです。私もこのパターンで危うく騙されるところでした。

注意

「声が本人だから安心」という時代は終わりました。声だけで相手を信じるのは、もう安全ではありません。

ディープフェイク動画詐欺|有名人のなりすまし

有名人が投資を勧める動画がSNSに流れていても、その動画自体がAIで作られた偽物かもしれません。

「ディープフェイク」とは、AIを使って人の顔や声を入れ替えた偽の動画のことです。最近の技術では、写真1枚と音声サンプルがあれば、本人が話しているような動画を作れてしまいます。

急増するYouTube広告詐欺

リサーチによると、YouTube経由の投資詐欺への接触件数は急増しています。手口はこうです。

  • 有名な経済評論家や実業家の顔と声をAIで再現した動画を作る。
  • 「この方法で月30万円の利益」などとYouTube広告に出す。
  • 興味を持った人をLINEグループに誘導し、投資を勧める。
  • 少額を入金させ、偽のアプリ画面で「利益が出ている」と見せかける。
  • 信用させた後、高額の追加入金を要求する。

SNS型投資詐欺の被害額は2025年で1,274億円にのぼります(警察庁 SNS型投資・ロマンス詐欺の認知・検挙状況)。

ビデオ通話でも騙される時代

「ビデオ通話なら顔が見えるから安心」と思うかもしれません。でも、2024年に香港で起きた事件では、ビデオ会議に参加していた上司や同僚の全員がディープフェイク(AIの偽映像)でした。本物だと信じた担当者が、約40億円を送金してしまったのです。

以前のディープフェイクは、口の動きが不自然だったり、まばたきが少なかったりと、よく見れば分かる欠点がありました。でも最新のAIでは、こうした不自然さがかなり改善されています。特にスマホの小さな画面で見ると、偽物だと気づくのはほぼ無理です。

覚えておきたいこと

有名人がSNSやYouTubeの広告で投資を勧めていても、それは無断で顔と声を使われた偽動画の可能性があります。有名人本人は一切関与していません。

AI画像を使ったなりすまし詐欺

実在しない人の顔写真を作って、SNSで近づいてくるのがAI画像詐欺です。

AI画像生成技術を使えば、本物の人間にしか見えない「架空の人物」の写真を簡単に作れます。この技術がロマンス詐欺や通販詐欺に悪用されています。

ロマンス詐欺での悪用

SNS型ロマンス詐欺の被害額は2025年で552億円にのぼり、前年より約38%も増えています(警察庁 統計資料)。

  • AI生成の魅力的なプロフィール写真でアカウントを作る。
  • Instagram、Facebook、マッチングアプリでDMを送る。
  • 時間をかけて信頼関係を築き、恋愛感情を持たせる。
  • 「事業の資金が必要」「投資で一緒に稼ごう」とお金を要求する。

AI生成の写真は、その人物が実在しないため、「写真で検索しても他のSNSアカウントが見つからない」のが特徴です。でもそれを「SNSをあまりやらない人なんだな」と好意的に解釈してしまいがちです。

偽通販サイトでの悪用

AI画像は偽の通販サイトにも使われています。

  • AIで生成した商品画像を並べた、本物そっくりの通販サイト。
  • 「店長の挨拶」にAI生成の人物写真を使い、信頼感を演出。
  • お金を振り込んでも商品は届かない。
注意

SNSで知り合った相手の写真がどんなに自然でも、会ったことのない相手にお金を渡してはいけません。これは相手がAIかどうかに関係なく、鉄則です。

AI詐欺を見抜く5つのチェックポイント

AI詐欺は見抜くのが難しいですが、「完璧」ではありません。以下の5つを意識するだけで、被害を防げる確率は大きく上がります。

① 「すぐに」「今日中に」は詐欺のサイン

急かすのは、あなたに考える時間を与えないためです。本物の警察も銀行も役所も、電話で「今すぐ」とは言いません。

② 電話を切って、自分からかけ直す

家族を名乗る電話は、一度切って本人の番号にかけ直しましょう。AIの声で電話をかけてきた犯人は、かけ直されると対応できません。「携帯が壊れたからこの番号にかけて」と言われたら、それは例外なく詐欺です。

③ お金の話が出たら「詐欺かも」と疑う

電話・SNS・メールで「お金を送れ」「口座を教えろ」「ATMに行け」と言われたら、ほぼ間違いなく詐欺です。特に「コンビニでギフトカードを買ってきて」「暗号資産(ビットコイン等)で送金して」という指示は100%詐欺です。どんな理由でも応じてはいけません。

④ 「誰にも言うな」は100%詐欺

「守秘義務がある」「家族に言ったら逮捕される」――こう言って孤立させるのは詐欺の常套手段です。本物の警察はこんなことを言いません。

⑤ 「確実に儲かる」は100%嘘

どんな投資にもリスクがあります。「必ず儲かる」「月利10%」と言う投資話は、金融庁も注意喚起している違法な勧誘です。

今日からできる4つの防衛策

どれもお金はかかりません。今日中にできるものばかりです。

1. 家族で「合言葉」を決める(無料)

これが一番カンタンで、一番確実な対策です。

家族だけが知っている合言葉を決めておきましょう。電話で「お金が必要」と言われたら、合言葉を聞く。AIは合言葉を知らないので、答えられません。

  • 子どもの頃のペットの名前など、SNSに書いていない情報が良い。
  • 「合言葉を忘れた」と言われたら、それは本人ではありません。
  • 離れて暮らす家族とは、次に電話したときに決めておきましょう。

2. SNSで音声・動画の公開範囲を制限する(無料)

AIに声を学習させるには、音声サンプルが必要です。SNSに投稿した動画や音声メッセージが、その材料にされます。

  • Instagram・Facebookの投稿を「友達のみ」に設定する。
  • 自分の声が入った動画は、公開範囲に注意する。
  • 知らない人からのフォローリクエストは承認しない。
  • 留守番電話のメッセージはできるだけ短くする。長い応答メッセージは声の採取に使われます。

3. 国際電話の着信を拒否する(無料)

ニセ警察詐欺の多くは国際電話(+1、+44などで始まる番号)を使います。海外に知り合いがいなければ、国際電話を止めてしまうのが確実です。

  • 国際電話不取扱受付センター(0120-210-364)に電話すれば、無料で国際電話の発着信を止められます。
  • 携帯キャリアの迷惑電話フィルターサービスも有効です(月額200円程度。キャリアの基本パックに含まれている場合は追加費用なし)。

4. 迷惑電話フィルターアプリを入れる(無料〜月額200円程度)

詐欺の疑いがある番号を自動で警告してくれるアプリがあります。

  • 怪しい番号からの着信時に「迷惑電話の可能性があります」と表示される。
  • 大手キャリア(docomo/au/SoftBank)のオプションサービスに含まれていることも多い。
  • ご家族がインストールを手伝ってあげるのもおすすめです。

騙されたかも?と思ったらすぐやること

大切なのは「恥ずかしい」と思わないこと。AI詐欺はプロでも見抜けないほど巧妙です。騙されかけたこと自体は、決して恥ずかしいことではありません。

① まず電話を切る・やり取りをやめる

これ以上の被害を防ぐために、通話やメッセージを即座に止めましょう。

② お金を振り込んでしまった場合 → すぐ銀行に電話

口座凍結の手続きが早ければ、被害金が戻る可能性があります。振り込んだ銀行のコールセンターに連絡してください。

③ 警察に相談する

#9110(警察相談専用窓口)に電話しましょう。緊急の場合は110番です。「こんなことで電話していいのかな」と遠慮する必要はありません。

④ 消費生活センターにも相談できる

188(消費者ホットライン)に電話すると、お住まいの地域の相談窓口につながります。通話料のみで相談は無料です。

家族へのお願い

調査によると、トラブルに遭っても約4割の高齢者が「誰にも相談しなかった」と回答しています。理由は「迷惑をかけたくない」「自分で解決できると思った」。日頃から「何かあったらすぐ電話してね」と伝えておくだけで、被害を防げる可能性が大きく上がります。