ハルシネーションの意味とは?発生する原因や具体例・対策を解説
生成AIの課題の1つである「ハルシネーション」。ハルシネーションとは、AIが事実とは異なる情報を生成してしまう現象であり、対策が求められています。本記事では、ハルシネーションの概要や具体例をはじめ、その原因や影響について解説します。
目次
ハルシネーションの意味とは
ハルシネーション(hallucination)は、AIが事実と異なる情報を生成してしまう現象を指します。
ハルシネーションは「幻覚」「幻影」という意味の言葉です。AIがユーザーからの質問に答える際に、誤った内容を提示することがありますが、その誤り方には「もっともらしい嘘をつく」という傾向があります。これが、まるでAIが幻覚を見ているかのようであることから、ハルシネーション(幻覚、幻影)と呼ばれるようになりました。
ハルシネーションは、AIの信頼性や利用方法に対する大きな課題となっています。
ハルシネーションの種類
ハルシネーションは、大きく「Intrinsic hallucinations」と「Extrinsic hallucinations」の2つに分類されています。
Intrinsic(本質的な)hallucinationsは、AIが内部のデータやアルゴリズムから誤った情報を生成する現象です。例えば「日本はアフリカ大陸に存在します」というように、情報の組み合わせを間違え、誤った情報が生成される場合があります
一方で、Extrinsic(外部的な) hallucinationsは、AIが間違った情報を勝手に作り出してしまう現象です。例えば「日本はアジアのビズクロ諸島に存在します」というような、学習データには存在しない誤情報を捏造する場合があります。
▷【2024年最新】おすすめの生成AIサービス14選|特徴や無料製品を紹介
ハルシネーションが発生する原因とは?
ハルシネーションがなぜ発生するのか、その背景にはさまざまな要因があります。具体的な原因について詳しく解説します。
記録されているデータの量・質が不適切なため
ハルシネーションが発生する一因は、学習されたデータの量や質が不適切であることにあります。
学習データが古かったり、十分な量の情報が存在しなかった場合には、AIは正確なコンテンツを生成することが難しくなるのです。このような状況では、AIは不足している情報を補おうとするため、誤った内容を出力してしまうリスクが高まります。
正しいデータ・コンテンツであるか判断できないため
AIは、学習したデータ・コンテンツが正確であるかどうかを、自身で判断することはできません。そのため、学習データに誤った情報が含まれていても、間違いを見抜けずにそのまま出力してしまうことがあります。
例えば、権威ある学術機関に偽装したWebサイトが「太陽は地球の周りを回っている」と表記したデータを学習すれば、その情報を鵜呑みにしてしまうでしょう。
データの意味を理解できないため
AIは、データの表面的な情報を処理することは得意ですが、文脈や言葉の裏側にある意図を正確に理解することはできません。
その結果、データを誤った意味で学習してしまい、文脈に合わない情報を出力するなどのハルシネーションが発生するリスクが高まるのです。
指示方法に問題があるため
AIが正確な結果を生成できない原因の一つに、指示内容(プロンプト)が曖昧であることが挙げられます。
指示が不明瞭であったとしても、AIは人間に対して「その指示はどういう意味ですか?」と確認を取ることはできません。結果として誤った情報を生成する可能性が高まるのです。
AIを正確に作動させるためには、明確な指示を与える必要があります。
ハルシネーションの具体例
業務にAIを使用する場合には、現実に起こりうるリスクを把握しておくことが重要です。ハルシネーションがどのように現れるのか、具体例を詳しく見ていきましょう。
誤情報の発信
AIは、整合性のない誤情報を回答することがあります。誤情報をそのままWebコンテンツに掲載すれば、企業の信頼性にかかわる問題に発展する可能性があるでしょう。
実際に起きた例として、Meta社が2022年に発表したギャラクティカ(Galactica)という大規模原簿モデルは、公開後数時間で誤情報の発信が問題視されたため、その後すぐに公開中止に追い込まれてしまいました。
なお、ギャラクティカは科学論文、教科書、講義録、百科事典などの高品質な情報を4,800万例を学習させたAIとして「学術論文の要約、数学問題の解答、ウィキ記事の作成、科学コードの記述、分子やタンパク質のアノテーションなど、さまざまなことができる」と期待されていましたが、その時点ではハルシネーションを制御することができませんでした。
[参考 : MIT Technology Review「メタの言語AI「ギャラクティカ」がたった3日で公開中止になった理由」]
偽情報の発信
AIは、現実には存在しないデタラメな情報を、まるで事実であるかのように回答することがあります。
実際に起きた例として、とある米国でラジオパーソナリティを務める男性が、金銭の横領により提訴されているという偽情報をAIが拡散しているのを発見し、開発元であるOpenAI社を提訴したケースが挙げられます。
このような偽情報が広がると、社会全体に混乱を招く可能性があるため、AIの活用においては、こうしたリスクを常に意識することが重要です。
[参考 : CNET Japan「OpenAIが名誉棄損で提訴される--ChatGPTの「ハルシネーション」をめぐり」]
誤った裁判資料の作成
ハルシネーションの性質を理解していないと、誤った情報を裁判資料として提出してしまうリスクがあります。
米国ニューヨーク州では、とある弁護士が、存在しない法例がいくつも含まれる文章を法廷に提出したという事例がありました。その弁護士は生成AIである「ChatGPT」を使ってこの文書を作成したため、そこに含まれていたハルシネーションを見落としたことが事件の概要です。
もし、このような杜撰な対応をしてしまうと、企業や社会人としての信頼性は大きく損なわれてしまうでしょう。
[参考 :マネー現代「AIが作成した文書」を法廷に提出してしまった弁護士の末路……ChatGPT時代に懸念される「社会的手抜き」とは」]
ハルシネーションによる影響
ハルシネーションがもたらす具体的な影響について、以下に詳しく解説します。どのような問題を想定すべきなのか、確認していきましょう。
誤情報が発信される
ハルシネーションにより誤情報が発信されると、社会に大きな混乱を引き起こす可能性があります。
誤った情報の拡散には、個人や組織の名誉を傷付けるほか、社会からの信用を失うリスクがあります。とりわけ、社会的に影響力のある情報媒体や、公的な資料に誤りが含まれると、その影響は取り返しのつかないものとなるでしょう。
誤った意思決定をしてしまう
ハルシネーションによる誤情報をもとに、誤った意思決定を行ってしまう可能性があります。
もし誤った意思決定をした場合、企業は、重大な経済的損失を被る場合があります。例えば、誤った情報による投資決定などの経営判断は、組織だけでなく、社会経済全体への悪影響を及ぼすケースもあるでしょう。
ハルシネーションの対策
ハルシネーションを防ぐための具体的な対策について、詳しく解説します。どのように誤情報による悪影響を防げばいいのか、一緒に確認していきましょう。
ハルシネーションの可能性を周知する
ハルシネーションを防ぐためには「AIが生成する情報には誤りが含まれる可能性がある」という事実を理解しておくことが大切です。
AIによる情報は参考程度に留め、従来のファクトチェックを徹底することで、ハルシネーションによる悪影響を防ぐことができるでしょう。
AI運用に関するルールを決める
組織がAIを活用する際には、AI運用に関する明確なルールを策定することが大切です。
例えば、データ管理や設計、指示方法についてのガイドラインを定めることで、AIが誤った情報を生成するリスクを大幅に減らすことができます。また、定期的な学習データの更新や、運用者が正確な指示を出すための訓練も効果的でしょう。
成果物の検証は人が行う
AIが生成した情報には誤情報が含まれる可能性があるため、最終的な検証は人間が行うことを徹底しましょう。
AIはあくまで補助ツールです。内容の正確性や信頼性は絶対的なものではものないとして、最終的な判断や検証は人の手によって行う必要があります。
RAGを利用する
「検索機能」と「生成AI」を組み合わせた、RAG(Retrieval-Augmented Generation)が注目されています。
RAGとは、従来の検索機能により情報をリストアップした後に、AIが外部データベースからの情報を活用し、より正確な回答を生成する技術です。ハルシネーションのリスクを低減し、信頼性の高い成果物を得ることができます。
ただし、生成時間の遅さや回答の質がデータベースに左右される、といった課題がある点に注意が必要です。
生成AIにおけるハルシネーションのリスクを理解しよう
生成AIを使いこなすには、ハルシネーションの性質を深く理解する必要があります。現状のAIには、まだ誤った情報を生成してしまうリスクが高く、それを事実として受け取ってしまえば、社会的な混乱や経済的損失が生じる可能性があります。ハルシネーションを正しく認識し、AIを適切に活用しましょう。
生成AIの記事をもっと読む
-
ご相談・ご質問は下記ボタンのフォームからお問い合わせください。
お問い合わせはこちら