サイト内の現在位置

求められる「解釈性」注目が高まるホワイトボックス型AIとは求められる「解釈性」注目が高まるホワイトボックス型AIとは

なぜその判断・分析結果に
なったのかを知りたい

AI活用が本格化・領域拡大する中で、壁にぶつかってしまうケースがあります。

その壁の一つが「AIがなぜその判断・分析結果を出したのか根拠が分からない」 というものです。

例えば、現在、広く利用され始めているディープラーニング。大量データから自動で特徴を見つけ出す特性を活かし、画像を使った製品検査業務などの効率化で成果をあげていますが、その結果に至った根拠を明らかにすることが難しく、「ブラックボックス」化されてしまいます。それが、一部の業務では課題になっているのです。

そこで、注目が集まっているのが、結果に至る理由(判断根拠)がわかる「説明可能なAI(Explainable AI,XAI)」=「ホワイトボックス型AI」です。

ブラックボックス型AIでの課題

  • 改善点がわからず
    精度の向上ができない

  • 納得感や安心感がなく
    意思決定につなげられない

  • 説明責任が果たせない

ホワイトボックス型AIなら
解決できる!

同様の課題でお困りの方必見!関連資料ダウンロード

企業経営経営判断や人事採用、金融審査、医療など、人の意思決定が必要だったり、人がAIの判断結果から影響を受けたりするような場面では、AIには、なぜ、その結果を導いたのかがわかる「解釈性」が求められます。その解釈性を備えたのが「ホワイトボックス型AI」です。

「効率化」と「高度化」、目的で選ぶAI

ブラックボックス型AIが得意なのは、前述の製品検査業務や真贋判定、劣化診断のようにAIに任せたい判断が明確で、パフォーマンスやスピードなど効率化を優先したい領域です。

一方、ホワイトボックス型AIが適した領域としては、ゴールが一つに定まらない問題で分析の理由の説明が必要なケースです。すでに活用が進む例では、小売・製造業における需要予測です。

消費者ニーズの多様化や商品ライフサイクルの短命化などによって、需要予測にはより高度な分析ノウハウが求められるようになっています。しかも、刻々と変化するマーケットに対応し、迅速に意思決定を行うには、その分析ノウハウの獲得に許された時間はごくわずかです。ホワイトボックス型AIなら、AIの予測結果と人の知見を組み合わせ、予測分析の精度を上げていくことが可能です。また、解釈性を備えているため、分析結果に対する納得感もあり、合意形成、意思決定をスムーズに行えます。

このようにAIが出した結果と理由を踏まえて人が考察し、意思決定や精度改善をしたり、新しい発見や示唆を得たりする──。「ホワイトボックス型AI」は、人と「協調」し、人への示唆の高度化を行うことを得意としています。

NECは、「ブラックボックス型AI」の活用と共に、この「ホワイトボックス型AI」の研究・開発にいち早く取り組み、2012年にはすでに事業化しています。その結果、2017年度から2018年度上期にかけてだけでも、ホワイトボックス型AIの商談件数は360件に上り、そのうち120件がすでに検証・稼働しています。

ブラックボックス型AIなら「RAPID機械学習」、ホワイトボックス型AIなら「異種混合分析」「インバリアント分析」というようにNECは、目的に合わせて使い分けることができる高度なAI技術群「NEC the WISE」を持っています。

Black Box型/White Box型 説明図Black Box型/White Box型 説明図

今、注目が集まるホワイトボックス型AIについて解説!関連資料ダウンロード

社会実装が進むホワイトボックス型AI

ホワイトボックス型AIはすでに
社会の様々なシーンで実装されています。

  • 中部電力様

    故障予兆検知

    早期の異常検知だけでなく、性能管理や異常発生時の原因分析にも利用

  • 飲料メーカー様

    新商品需要予測

    予測の判断基準にAI を活用しながら人間の経験値を反映して意思決定を行う

  • NECソリューションイノベータ様

    検診結果予測

    保健指導の説得力が高まるとともに、社員自身が生活習慣改善を自覚

ホワイトボックス型AIを構成する
NECのAI技術

なぜそのような予測に至ったのか、予測の根拠を分かりやすく提示することができる解釈付き分析ができるAI技術です。

  • インバリアント分析

    センサ間の相関を可視化し、「いつもと違う」挙動を早期に発見します。

  • 異種混合学習

    多種多様なデータから複数の規則性を自動で発見します。