PR

「ママ、助けて!」は本当に我が子?知らないと危険、AIクローン音声誘拐詐欺

「ママ、助けて!」は本当に我が子?知らないと危険、AIクローン音声誘拐詐欺

こんにちは!ネットトラブルから子ども達を守りたい、ハルです。

「AIクローン音声」という言葉を耳にしたことはありませんか。

技術の進歩は私たちの生活を便利にする一方で、新たな危険も生み出しています。「AIクローン音声」、つまり偽の音声を使った、誘拐事件が海外で発生しています。

今後日本でも増えてくるかもしれませんので、「AIクローン音声」を使った誘拐の手口や事例を知っておきましょう。

日本でも起きる?AIクローン音声誘拐詐欺|AIクローン音声とは?

日本でも起きる?AIクローン音声誘拐詐欺|AIクローン音声とは?

「AIクローン音声」をカンタンに説明すると、声をそっくりに真似する技術です。

例えば、SNSなどで取得したお子さんの声を録音して、AIに学習させると、お子さんの声そっくりの音声を作り出すことができます。この技術、最近はものすごい勢いで進化していて、誰でも簡単に高品質なクローン音声を作れるようになりました。

でも、便利な技術にはいつも影の部分がついてきます。特に怖いのが、この技術が偽の誘拐事件に使われる可能性があるということです。子どもの声を真似て親をだます事件が、実際に起きています。

日本でも起きる?AIクローン音声誘拐詐欺|AI音声での誘拐事件の事例

日本でも起きる?AIクローン音声誘拐詐欺|AI音声での誘拐事件の事例

2023年アメリカで、娘の声を真似たAIクローン音声で母親を騙し、身代金を要求する事件がありました。

AIクローン音声を利用することで、完全に子どもの声だと思い込んでしまうと思うので、怖いですよね。また、スマホをつなげたまま、銀行のATMを操作させてお金をだまし取る、オレオレ詐欺のような事件も増えてきました。

AIクローン音声詐欺の事例|高齢者への詐欺電話

高齢者をターゲットにした、オレオレ詐欺です。普段家族と頻繁に連絡し、騙されないような高齢者の方でも、AIクローン音声を使われると、騙されてしまうかもしれません。

高齢者は、このようなAI音声クローンの詐欺について知らないことが多いため、身近な高齢者に是非伝えて、事前に対策をとっておく必要があります。

AIクローン音声詐欺の事例|家族の緊急事態を装った詐欺電話

息子の声を真似た電話で「事故を起こしてしまった」と言われ、示談金を要求されたケースがありました。AIクローン音声の技術がここまで進んでいるなんて、驚きですよね。

これらの事件から分かるのは、AIクローン音声を使った誘拐は、もはや他人事ではないということ。私たちの身近で起こり得る問題なんです。

AIクローン音声詐欺の事例|小さい子供の誘拐を装った詐欺電話

親を標的にし、AIクローン音声を使い、子どもの誘拐を装う詐欺です。子どもとそっくりな声だとパニックになるため、冷静な判断ができなくなるところを狙います。

すぐばれてしまうような身代金の要求よりも、スマホをつないだままATMに行かせて操作させるような手口が多くなることが予想されます。

まとめ|日本も例外ではない!AIクローン音声誘拐詐欺のことを知っておこう!

海外では実際発生しているAI音声を利用した、誘拐詐欺事件。あなたも、普通の詐欺にはひっかからなくても、自分の子どもが誘拐されるような電話がかかってきたら、騙されない自信がありますか?

AIクローン音声を使った詐欺事件は、日本でもこれから増えてくることが予想されます。一番の対策は事件をまず知っておくことです。

こちらのブログ記事では、具体的な対策も紹介していますので是非参考にしてください↓

親子で学ぶネットリテラシー。おやこITノート
プロフィール
このブログの管理人
ハル先生

IT×子育てナビゲーター
子育てに関するIT関連の悩みは、親なら誰しもが持っているもの。しかし、犯罪の事例を知り、正しく利用すれば、まったく怖いものではありません。犯罪に巻き込まれない「ITスキル」や「SNSの正しい使い方」を親子で学んで、子ども達の可能性を広げましょう♪

3人兄妹の子育ての傍ら、宮崎市でIT・ネットリテラシー、SNS関連の講座も開催しています。
講座のご依頼は、お問い合わせから❤

ハル先生をフォローする
ITリテラシー詐欺の事例
シェアする
ハル先生をフォローする
タイトルとURLをコピーしました