サイト内の現在位置
NECが目指す「信頼できるAI」とは
NECは予測結果の根拠を説明可能なAI=ホワイトボックス型AIをはじめとする、
プライバシーを含む人権の尊重や品質を考慮した「信頼できるAI」の提供を目指しています。
「信頼できるAI」がお客様の「責任あるAI」の活用を支えます。
-
ホワイトボックス型AI
-
NECグループAIと
人権に関するポリシー詳しくはこちら
-
AI品質ガイドライン
詳しくはこちら
注目が高まる「ホワイトボックス型AI」
なぜその判断・分類結果になったのか知りたい
AI活用が本格化・領域拡大する中で、壁にぶつかってしまうケースがあります。
その壁の一つが「AIがなぜその判断・分析結果を出したのか根拠が分からない」 というものです。
例えば、現在、広く利用され始めているディープラーニング。大量データから自動で特徴を見つけ出す特性を活かし、画像を使った製品検査業務などの効率化で成果をあげていますが、その結果に至った根拠を明らかにすることが難しく、「ブラックボックス」化されてしまいます。それが、一部の業務では課題になっているのです。
そこで、注目が集まっているのが、結果に至る理由(判断根拠)がわかる「説明可能なAI(Explainable AI,XAI)」=「ホワイトボックス型AI」です。
企業経営経営判断や人事採用、金融審査、医療など、人の意思決定が必要だったり、人がAIの判断結果から影響を受けたりするような場面では、AIには、なぜ、その結果を導いたのかがわかる「解釈性」が求められます。その解釈性を備えたのが「ホワイトボックス型AI」です。
「効率化」と「高度化」、目的で選ぶAI
ブラックボックス型AIが得意なのは、前述の製品検査業務や真贋判定、劣化診断のようにAIに任せたい判断が明確で、パフォーマンスやスピードなど効率化を優先したい領域です。
一方、ホワイトボックス型AIが適した領域としては、ゴールが一つに定まらない問題で分析の理由の説明が必要なケースです。すでに活用が進む例では、小売・製造業における需要予測です。
消費者ニーズの多様化や商品ライフサイクルの短命化などによって、需要予測にはより高度な分析ノウハウが求められるようになっています。しかも、刻々と変化するマーケットに対応し、迅速に意思決定を行うには、その分析ノウハウの獲得に許された時間はごくわずかです。ホワイトボックス型AIなら、AIの予測結果と人の知見を組み合わせ、予測分析の精度を上げていくことが可能です。また、解釈性を備えているため、分析結果に対する納得感もあり、合意形成、意思決定をスムーズに行えます。
このようにAIが出した結果と理由を踏まえて人が考察し、意思決定や精度改善をしたり、新しい発見や示唆を得たりする──。「ホワイトボックス型AI」は、人と「協調」し、人への示唆の高度化を行うことを得意としています。
NECは、「ブラックボックス型AI」の活用と共に、この「ホワイトボックス型AI」の研究・開発にいち早く取り組み、2012年にはすでに事業化しています。その結果、2017年度から2018年度上期にかけてだけでも、ホワイトボックス型AIの商談件数は360件に上り、そのうち120件がすでに検証・稼働しています。
ブラックボックス型AIなら「RAPID機械学習」、ホワイトボックス型AIなら「異種混合分析」「インバリアント分析」というようにNECは、目的に合わせて使い分けることができる高度なAI技術群「NEC the WISE」を持っています。
社会実装が進むホワイトボックス型AI
ホワイトボックス型AIはすでに
社会の様々なシーンで実装されています。
-
中部電力様
故障予兆検知
早期の異常検知だけでなく、性能管理や異常発生時の原因分析にも利用
-
コニカミノルタ様
複合機のオプション品需要予測
きめ細やかな分析で予測の精度を向上、さらに予測の根拠がわかるので経営の意思決定をサポートできる
-
NECソリューションイノベータ様
検診結果予測
保健指導の説得力が高まるとともに、社員自身が生活習慣改善を自覚