Japan
サイト内の現在位置
生成AIがつくり出す誤情報のリスクを検知
ハルシネーション対策機能
NECの最先端技術 2025年10月7日

生成AI活用の広がりとともに問題となっている「ハルシネーション」。生成AIがデータ出力時につくり出してしまう誤情報ですが、前提となる知識がない場合にはそれが誤りであるかどうかもわからないため、生成AIの実業務への応用を妨げる大きな障壁となっています。さらに、世界ではEU AI Actをはじめとして各国で生成AI活用をめぐるガイドラインも策定されており、生成AIを安全・安心に正しく利用するための方法やシステム構築への注目も高まりつつあります。
こうしたなか、NECではハルシネーションのリスクをリアルタイムで検出する技術を開発しました。本技術がどのようなものなのか、研究主体となったNEC Laboratories Europeの研究者と生成AI事業の推進を進めるNECの担当者に話を聞きました。
ハルシネーションを高精度にリアルタイム検知し、実業務への生成AI活用を推進

Manager & Chief Research Scientist
Carolin Lawrence
― 今回発表した「ハルシネーション対策機能」とは、どのようなものなのでしょうか?
Lawrence:生成AIの出力に紛れ込んでしまうハルシネーションを検出し、ユーザに確認を促す機能です。生成AIはデータから要約文などを生成することができますが、現在のようにハルシネーションが含まれるリスクが残ったままでは、間違いが致命的な問題を起こしかねない業務には有効活用することができません。ユーザは全文が正しいかどうか自力で確認しなくてはならなくなるからです。
これに対し、本機能では生成された文章と原文を比較して情報源を特定し、ハルシネーションの可能性がある箇所を指摘します。文章レベルでリアルタイムに検出することができるので、ユーザは当該箇所だけを適宜チェックして、効率的にハルシネーションのリスクを払拭することができるのです。「原文にない内容」など、ハルシネーションとして検知した根拠もあわせて示すことができます。
Syed:私たちが行ったテストでは、本機能を使わなかった場合と比べて、チェック時間を約1/2にまで短縮することができました。また、チェックの精度においても大きく向上することを確認しています。ユーザが自力で全文を確認する場合には55-60%ほどの確率でしか確かな検証ができなかったのですが、本機能を使った場合には85-90%まで向上させることができました。
Gashteovski:本機能は、業界や用途を問わず幅広く活用することが可能です。例えば医療では、問診情報から電子カルテを作成する際や、患者への投薬の事前チェックに応用できるでしょう。また、金融では既に実運用を開始しています。NECの子会社でもあるスイスのAvaloq社においては、本技術を用いて、ユーザとともに内容に間違いが無いかをチェックするというソリューションを運用しています。この他にも法務分野でも利用できると考えて準備を進めているところです。
Lawrence:例えば契約書締結の際に生成AIを活用してドラフトを作成し、過去の契約書や社内ルールとの比較を行って誤りを提示することができれば、契約書作成業務を大幅に効率化できます。

AIテクノロジーサービス事業部門
ディレクター
外川 遼介
外川:この技術の本質は、文章同士を比較し、対応関係を分析できるところにあります。そのため、ハルシネーションのチェックと同時に、ファクトやルールとの比較も可能になります。医療・金融・法律など、間違いが致命的な問題を起こし得る業界には、特に親和性の高い技術になると考えているところです。
例えば、保険や金融商品のセールスでは、法律上言ってはいけない文言が厳密に決められていたりしますので、そうしたルールの確認のためにも有効活用できると考えています。私のチームでもNEC Laboratories Europeの動きと連動しながら、日本を含めた世界中の市場へ製品・ソリューションとして押し出せるように注力しています。
独自のデータ拡張技術を開発し、文章レベルの検出を実現

Senior Research Scientist
Kiril Gashteovski
― 本機能を実現するためには、どのような技術が使われているのでしょうか?
Gashteovski:本機能の最大の特長は、文章レベルで情報源の検出ができるという精度とリアルタイムな検出を実現する速度です。これを実現するために、教師データの拡張技術を独自に開発しました良質なデータを人為的に作成して学習量を確保し、トレーニングの品質を上げることに成功しています。データのラベル付けには、単純な識別的アプローチではなく、使用されている LLM の生成特性を活用してトレーニングデータを生成します。
言語間のデータ量の差異もこの技術を通じて解消し、原理的にはどんな言語にも対応できるようになっています。現在は英語と日本語での動作を検証済みです。本技術は論文にまとめ、今年の7-8月に開催される難関国際学会Association for Computational Linguistics(ACL)2025 に採択されています。
Lawrence:また、学習自体は大規模なLLMを使って行ったのですが、そのデータをより小さなモデルに落とし込んで分析精度を上げるようにチューニングしていきました。小さなモデルの方が、高速かつ安価に利用できるからです。我々は、お客様の現場での運用を見据えて小さなモデルで精度良く動くように構築しています。
Syed:どのようなLLMにも対応できる点もポイントです。クラウド型のLLMも利用可能ですし、ローカルな環境に置いたLLMにも組み込むことが可能です。お客様のニーズにあわせて柔軟にシステムを構築することができます。
Lawrence:私たちは、6年以上前から自然言語処理と説明可能AIの研究を進めてきました。世界的にも、双方を長く研究し続けてきた組織はほとんどありません。長年の研究開発で培ってきた横断的なノウハウが、今回の技術開発につながったのではないかと考えています。
外川:そうですね。コンシューマ向けではなく、大企業・官公庁(エンタープライズ)向けにこれだけしっかりとした研究部門を持ってAIの領域に長年取り組んでいる企業は、世界中を探してもほとんどありません。説明可能性や安全・安心の確保はエンタープライズ向けだからこそ不可欠な要素となってくるかと思います。研究所が創出する先進技術に加え、それを活用するためのノウハウを組み合わせることで、企業や官公庁など、お客様それぞれに適切なプロダクトやサービスを提供できるようにAI事業を進めていきたいですね。
ハルシネーションの自動修正まで見据えて開発を継続

Senior Research Engineer
Shahbaz Syed
― 本機能を今後どのように展開していく予定ですか?
Syed:次の進化としては、ハルシネーションリスクのレベルを表示できるようにしたいと考えています。現段階ではリスクが軽度のものも重度のものも、全て同じようにユーザへ提示するインターフェースになっていますが、リスクレベルもあわせて表示できるようになれば、ユーザの検証効率も大きく向上するはずです。
また、さらなる進化の形としては、ハルシネーションリスクの検知だけでなく、自動で修正できるようにしていきたいですね。短時間でスピーディにLLMの出力に対する修正が行えるような機能を実現していきたいです。
Lawrence:あわせて、本機能をフェイクニュースの検知にも活用できると考えていますので、そうした用途にも今後対応していきたいというに考えています。

外川:事業観点で言えば、世界中のユーザの皆様にどれだけ生成AIの信頼性を担保できるかということが、生成AIの事業活用を拡大するために越えなければならない最初のハードルです。だからこそ、NECとしていかに生成AIを安全・安心にお客様に使っていただけるかを突き詰めていく必要があると考えています。そのためにも、本機能はもちろん、他にもさまざまなアプローチから技術・製品の開発を進めて、業務への安全・安心な生成AI活用を推進していきたいと思っています。


本技術は、生成AIの出力した文章と元データを比較し、ハルシネーションのリスクがある箇所をユーザに提示するというものです。出典となったドキュメントやウェブサイトの提示にとどまらず、そのなかの文章単位という精度でソースを特定し、リアルタイムに根拠とともに提示できることがNEC独自のポイントです。本機能の実現には、NECが独自に開発したハルシネーション学習用のデータ拡張技術が活用されており、難関国際学会Association for Computational Linguistics(ACL)2025 に採択されています。
- ※本ページに掲載されている内容は、公開時の情報です。
お問い合わせ