
こんにちは!ネットトラブルから家族を守りたい、ハルです。
最近は、調べものをしたり、文章を作ったり、画像や歌を生成したりなど、とにかく何をするにもAIが欠かせません。夕食の献立までお世話になっているほど便利です。
ただAIは「いつでも正しい答えを出してくれる」わけではありませんよね。ときには、事実と違うことを自信満々に言ってくることがあるんです。
これを専門用語で「ハルシネーション」と呼びます。
特に子ども達は、AIの答えをすべて信じがちなので、このハルシネーションになりやすい3つの注意点を確認してください。
AIのウソ、ハルシネーションが発生しやすい3つのこと

ネット上にあるすべての情報の中には、偽情報、でたらめなどもたくさん含まれていますよね。そんな多くの情報を見て答えるAIは、さらに情報を新しく生成して、まったくのでたらめをかえしてくることもあります。
AIを上手く活用するためには、こんなポイントを心がけてみてください。
- 出典(URLや公式情報)が示されているかをチェックする
- 複数のソースで同じことが確認できるか確かめる
- 「本当にそうなのかな?」と一歩引いて考えるクセを持つ
1.医療、法律、金融などの、専門的な情報は要注意
AIに「この症状に効くサプリは?」「この契約書って法的に大丈夫?」などと聞きたくなること、ありませんか?
しかし、これは大変危険です。医療や法律、金融の情報は、命や財産に直結します。AIがハルシネーションを起こして、誤った答えを出すことも十分にありえます。
こうした分野は必ず専門家に相談するようにしましょう。AIはあくまで参考程度にとどめておくことが大切です。
2.最近起きた出来事
「昨日のサッカーの試合結果は?」「今日のニュースを教えて」こんな質問に対しても、AIは答えられるように見えて、実は情報が古いことが多いです。
AIの学習データは少し前で止まっているものもあるので、最新の出来事を正確に答えるのは苦手なことがあります。
最新のニュースやイベント情報、天気予報などは、必ずニュースサイトや公式サイトで確認するようにしましょう。
3.マイナーな人物や事柄は“創作”しがち
歴史上の人物や、あまり有名でない出来事について聞くと、AIは「それっぽい話」を作ってしまうことがあります。
たとえば「戦国時代の〇〇という武将のエピソードを教えて」と聞くと、実際には存在しないエピソードを語ってしまうことも。
情報が少ない分野ほどハルシネーションが起きやすいので、必ず複数の資料や信頼できる本で裏取りをしましょう。
まとめ|自分でも調べてハルシネーションを見抜く力を!
AIはとても便利なツールですが、万能ではありません。特に「命やお金に関わること」「最新ニュース」「マイナーな事柄」は、ハルシネーションが起きやすい要注意ポイントです。
大切なのは、AIを完全に信じるのではなく、上手く活用する程度におさえること。AIを使いつつ、自分でも調べて、正しい知識を蓄積しておくことが必要です。これを意識するだけでも、安心してAIを活用できるようになりますよ。

