
こんにちは!ネットトラブルから子ども達を守りたい、ハルです。
「AIクローン音声」という言葉を耳にしたことはありませんか。
技術の進歩は私たちの生活を便利にする一方で、新たな危険も生み出しています。「AIクローン音声」、つまり偽の音声を使った、誘拐事件が海外で発生しています。
今後日本でも増えてくるかもしれませんので、「AIクローン音声」を使った誘拐の手口や事例を知っておきましょう。
日本でも起きる?AIクローン音声誘拐詐欺|AIクローン音声とは?

「AIクローン音声」をカンタンに説明すると、声をそっくりに真似する技術です。
例えば、SNSなどで取得したお子さんの声を録音して、AIに学習させると、お子さんの声そっくりの音声を作り出すことができます。この技術、最近はものすごい勢いで進化していて、誰でも簡単に高品質なクローン音声を作れるようになりました。
でも、便利な技術にはいつも影の部分がついてきます。特に怖いのが、この技術が偽の誘拐事件に使われる可能性があるということです。子どもの声を真似て親をだます事件が、実際に起きています。
日本でも起きる?AIクローン音声誘拐詐欺|AI音声での誘拐事件の事例

2023年アメリカで、娘の声を真似たAIクローン音声で母親を騙し、身代金を要求する事件がありました。
AIクローン音声を利用することで、完全に子どもの声だと思い込んでしまうと思うので、怖いですよね。また、スマホをつなげたまま、銀行のATMを操作させてお金をだまし取る、オレオレ詐欺のような事件も増えてきました。
AIクローン音声詐欺の事例|高齢者への詐欺電話
高齢者をターゲットにした、オレオレ詐欺です。普段家族と頻繁に連絡し、騙されないような高齢者の方でも、AIクローン音声を使われると、騙されてしまうかもしれません。
高齢者は、このようなAI音声クローンの詐欺について知らないことが多いため、身近な高齢者に是非伝えて、事前に対策をとっておく必要があります。
AIクローン音声詐欺の事例|家族の緊急事態を装った詐欺電話
息子の声を真似た電話で「事故を起こしてしまった」と言われ、示談金を要求されたケースがありました。AIクローン音声の技術がここまで進んでいるなんて、驚きですよね。
これらの事件から分かるのは、AIクローン音声を使った誘拐は、もはや他人事ではないということ。私たちの身近で起こり得る問題なんです。
AIクローン音声詐欺の事例|小さい子供の誘拐を装った詐欺電話
親を標的にし、AIクローン音声を使い、子どもの誘拐を装う詐欺です。子どもとそっくりな声だとパニックになるため、冷静な判断ができなくなるところを狙います。
すぐばれてしまうような身代金の要求よりも、スマホをつないだままATMに行かせて操作させるような手口が多くなることが予想されます。
まとめ|日本も例外ではない!AIクローン音声誘拐詐欺のことを知っておこう!
海外では実際発生しているAI音声を利用した、誘拐詐欺事件。あなたも、普通の詐欺にはひっかからなくても、自分の子どもが誘拐されるような電話がかかってきたら、騙されない自信がありますか?
AIクローン音声を使った詐欺事件は、日本でもこれから増えてくることが予想されます。一番の対策は事件をまず知っておくことです。
こちらのブログ記事では、具体的な対策も紹介していますので是非参考にしてください↓


