※ 当サイトは、アフィリエイト広告を利用しています。

ChatGPTのハルシネーションとは|初心者が知っておきたい注意点

ChatGPTは、質問すればすぐに答えてくれる、頼もしい存在です。

でも、そんなAIにも注意すべき一面があります。

実はときどき、もっともらしいウソをつくことがあるのです。

その現象をハルシネーションと呼ばれていて、このことを知らないとトラブルのもとになることがあります。

この記事では、ハルシネーションとは何か、ChatGPTとどう付き合えば安心して使うことができるのかを解説します。

ハルシネーションとは

ハルシネーションとは、もともと「幻覚」という意味の言葉です。

AIの世界では、「存在しない情報を、あたかも本物のように語ってしまうこと」を、ハルシネーションというようになりました。

たとえば、

  • 実在しない人名や書籍を最も存在するように答える
  • 間違った日付やデータを提示して、もっともらしく答える
  • 架空の住所やサービスを紹介してしまう

これらは、ChatGPTが人間のように理解して考えて答えているのではなく、言葉のパターンから、ありそうな答えを予測していることから起こります。

ハルシネーションの仕組み

ハルシネーションがなぜ起こるかというと、ChatGPTの欠点である、言葉の組み合わせにより、誤った情報でも気が付かなかったり修正したりすることはできないからです。

ChatGPTは人間と違って、質問を理解したり判断しているわけではなく、言葉のパターンを学んで、こういう質問にはこんなふうに答えるのが自然であると、言葉と言葉のつながりを予測して答えているだけだからです。

ChatGPTは「知識で答えている」のではなく、「言葉の流れ」で答えています。

そのため、はっきりした情報がない質問やあいまいな表現に対しては、似たようなデータをもとに、もっともらしい答えを作り出してしまうことがあるのです。

米国でChatGPTが架空の判例を創作

2023年5月30日のニューヨーク・タイムズ紙によると、アメリカの弁護士がChatGPTを使って作成した訴訟資料に、存在しない判例を6件も引用してしまう事件がありました。

この訴訟は、航空機内で配膳用カートが乗客にぶつかり、けがをしたとして南米のアビアンカ航空を訴えたものでした。

弁護士は、デルタ航空やユナイテッド航空などの実在する企業名で、似たような事案の判例を資料に記載しましたが、それらはすべてAIが創作した架空のものだったということです。

法律の判例には、独特の言い回しや定型パターンがあり、ChatGPTはこれを学習しているため、それらしい判例っぽい文章を作るのが得意なことから、事実と異なってもつじつまが合うような文章を作ってしまったということです。

AIには、これは本当に存在するかどうかという確認機能はありません。

どんなにあいまいな質問に対する答えであっても、ChatGPTは、事実かどうかよりも自然に見える言葉のつながりを優先してしまいます。

そのため、もっともらしい言い回しで、本当のように見えるウソの答えを作ってしまうことがあるのです。

さらに、AIは人間のように「わかりません」と言わないため、たとえ質問があいまいでも、似たような情報がデータに含まれていれば、それをもとに答えを組み立ててしまいます。

その結果、事実とは異なる内容でも、堂々とそれらしく答えとして発表してしまうということです。

ハルシネーションが起きる4つの原因

ChatGPTのハルシネーションは、どうして起こるかという原因について考えてみることにします。

原因①:質問があいまいで不明確なとき

ChatGPTは、明確で具体的な質問には強いのですが、あいまいな質問には弱い傾向があります。

ChatGPTは、意味を深く理解しているわけではないので、質問に曖昧さがあると、よく使われる表現をつなぎ合わせて、質問を理解しないまま回答しようとするため、事実ではない答えになってしまうのです。

原因②:情報が少なかったりデーターに存在しないとき

ChatGPTは、学習データに基づいて答えを作っていますが、その情報がなかったり、または不完全な場合に穴埋めのようにそれっぽい情報を作り出してしまうのです。

最新の出来事や、一般的ではないマイナーなこととか、個人のことや最近の製品などには不正確な回答をすることがあるのは、答えに結び付く情報がないためです。

原因③:似た話題が多く混同しやすいとき

ChatGPTは、似たような話題を一緒に学習しています。

そのために、似ている用語、表現が混ざってしまうことがあると、区別がつかずに混同してしまうのです。

その結果、関連する情報を組み合わせて、もっともらしい説明をするためのですが、似たような情報が混同して提供した場合、ハルシネーションが起こります。

原因④:質問の中に間違いが含まれているとき

質問文自体に誤りがあると、AIはそれを前提として正しいものと判断してしまうことがあります。

たとえば、渋谷にある通天閣の高さはと質問されると、AIは渋谷に通天閣があるという前提で話を進めてしまい、存在しない情報を作ってしまう可能性があります。

ChatGPTには、質問自体が間違っていたり矛盾していると見抜く力ができないため、無理やり答えようとしてしまうために嘘をつくことになってしまいます。

ハルシネーションを防ぐ5つのコツ

では、私たちはどうすれば安心してChatGPTを使えるのでしょうか。

以下の5つのコツを意識するだけで、ハルシネーションを避けることができます。

✅ 1.質問は具体的にする

「ChatGPTの使い方を教えて」ではなく、
「40代の男性におすすめのChatGPT活用法を3つ教えて」など、内容を具体的にしましょう。
あいまいな質問は、あいまいな答えを生みだすことを知っておいてください。

✅ 2.答えをそのまま信じない

ChatGPTの回答は、参考情報として受け止め、自分でも調べて裏付けをとるようにしましょう。
公式サイトや信頼できる資料と照らし合わせることが安心して信用することができます。

✅ 3.出典をたずねてみる

「その情報の根拠はどこですか」と聞いてみることで、AIの答えの信頼性を見極めることができます。
参考資料など、はっきり答えられない場合は注意が必要です。

✅ 4.同じ質問を少し言い換えてみる

何度か質問を繰り返すことで、答えがブレていないかを確認できます。
一貫性のない回答は、ハルシネーションのサインです。

✅ 5.AIをアシスタントとして使う

ChatGPTに全部任せるのではなく、一緒に考えてくれるアシスタントとして使いましょう。
自分の考えを補強してくれる存在として付き合うのが、賢いChatGPTの使い方といえます。

ハルシネーションと共にある

ChatGPTにはハルシネーションと呼ばれる現象があるということは認識しておくことが必要です。

これは、AIがもっともらしいウソを自信たっぷりに語ってしまうという、いわばAIの癖があることを認めて付き合うということです。

AIのハルシネーションという特性を知ったときに、「やっぱり信用できない」と思うか、「癖を理解すれば、うまく付き合える」と前向きにとらえるかで、その後のAIとの付き合い方は大きく変わってきます。

ChatGPTに、すべてを任せようとすると、ハルシネーションはたしかに怖いものになりますが、正しいかどうかは自分で確かめるという視点に切り替えることで、ChatGPTはとても頼もしい存在になるのです。

すべての判断は自分

AIが間違うことがあると知っているからこそ、私たちは最後の判断は自分と決めておけばいいのです。

間違うこともあるChatGPTですが、自分で考える力を引き出してくれる存在として認めることで、日常生活に豊かさをもたらしてくれることになります。

ChatGPTは完璧ではありません。

けれど、その不完全さを理解し、上手につき合えば、毎日の暮らしにそっと寄り添ってくれる頼もしい存在になるのです。

間違うことがあると知っているからこそ、自分の目で確かめながら、必要なところだけ力を借りるという、そんなバランスの中で、私たちはAIとともに自分らしい暮らしを築いていけるのではないでしょうか。

「ブログでお小遣いを稼ぎたい…」

そんなあなたのWordPressのテーマを変えてみませんか !

あなたがブログをもっと育てたいと思っているなら、AFFINGER6は心強い味方になります。

AFFINGER6なら、デザインをプロっぽく作ることができます。