サイト内の現在位置

知っておくべきAI活用の避けられないテーマ
「責任」との向き合い方とは

適用範囲の拡大で浮上した新しい課題

AIは果たして公平か――。利用している企業の責任は──。次のニュースを読んでほしい。

米人権擁護団体は、AI面接ツールの公平性について当局に調査の要請を行った。また、米アマゾンでは、かねて実施してきたAIによる人材採用において、性別にかかわる中立性が担保されていないという問題点が指摘され、打ち切りを決定した。

国内でも似たような事例がある。日本IBMでは、労働組合がAIを使った人事評価に反発。東京都労働委員会に救済の申し立てを行った。

これらのニュースは、いずれもAIの責任を改めて考えさせられるものと言えよう。

言うまでもなく、現在、AIは広く利用されており、企業の業務あるいは産業そのものに対して大きなインパクトを与えている。ECサイトのレコメンドの仕組みなど、マーケティング分野での利用が主流だったころを経て、最近は小売業における需要予測、さらにはクルマの自動運転、金融・保険分野の与信管理などにまで用途が拡大。AIが人の生命や財産といったクリティカルな領域にも影響を与え始めている。

そこで、指摘されるようになったのが、前述のAIの公平性のような問題だ。AIが偏見や差別を惹起してしまう可能性を無視したまま社会に受容されることはあり得ない。言い換えれば、AIをビジネスに活用する企業は、そうした課題をしっかりと念頭に置く必要があるということだ。

では、企業はAIのこのテーマとどう向き合うべきか。銀行業務における現金需要予測や金融犯罪対策などの領域でAI活用に積極的に取り組むセブン銀行、数多くの先進的AIソリューションを提供するNECのデータサイエンティスト、そして憲法学者としてAIが内包する人権侵害のリスクについて、様々な活動を通して警鐘を鳴らし続けている慶應義塾大学の山本 龍彦教授に話を聞いた。

PoCは行わず、すぐに現場に投入することも

株式会社セブン銀行
専務執行役員
松橋 正明 氏

――セブン銀行のAI活用についてお聞かせください。

松橋:現在、セブン銀行は、ATMにどれくらいの紙幣を備えておくべきかを予測する「現金需要予測」、顔写真や振る舞い映像を活用した「金融犯罪対策」、そして、故障の予兆を捉えて先回り対応する「定期点検レスATM」などのAIを活用または準備しています。これらは、長年、当行の課題でありつつ、既存の技術では解決できなかったものたちです。それがAIによって解決できそうです。

──AIを活用する上では、どのような点を意識していますか。

松橋:AIに限らずテクノロジー全般についていえることですが、解決したい課題ありきで考えています。従って「AIで何かをやろう」という発想はありません。ですから、よく驚かれますがPoC(概念実証)はなるべくせず、事業の中心部に適用するケースが多いです。課題解決の可能性と道筋を検討し、可能だと判断したら現場に投入して、チューニングしながら精度を上げていきます。この作業を行うためには、AIが、なぜそう判断したのかを把握する必要があります。ですから、AIはブラックボックスでなく、NECの「異種混合学習」など「ホワイトボックス型」のAIを採用する例が多いです。

本橋:NECは、長年、ホワイトボックス型を意識してAI技術の開発に取り組んできました。例えば、セブン銀行さんの金融犯罪対策では、疑わしいと判断した人の行為が、なぜ疑わしいのかを適切に説明できなければならないからです。その上で、現在はAIの責任をより広義に捉え、公平性、プライバシー、透明性、説明責任、統制、安全性なども含めた「責任あるAI」という考え方が必要だと感じています(図1)。

zoom拡大する
図1 責任あるAIの考え方
公平性、プライバシー、透明性、説明責任、統制、安全性など、AIが社会に受容されるために必要な条件を整理。それらを総合して責任あるAIと表現される
慶應義塾大学大学院法務研究科
教授 兼 慶應義塾大学グローバルリサーチインスティテュート(KGRI)副所長
山本 龍彦 氏

山本:AI面接ツールにまつわる問題もそうですが、AIが個人の評価を行う場合などには、説明性をはじめ公平性などが問われます。そもそも、AIは投入されたデータを基に判断しますから、不適切なデータの混入によって判断も不適切になる可能性は当然あります。また、既に差別が存在した環境で収集されたデータを使えば、その差別が再生産される可能性もあるわけです。「人が判断していた時代の偏見がAIに引き継がれただけ」と言い訳をして、偏見や差別を正当化すべきではない。ビッグデータやAIを使って、これまで以上に公正で多様な社会をどう実現するかを、私たちは考えなければなりません。

「AI for Good」の視点に立って開発や教育に取り組む

――世界では「AI for Good」というキーワードのもと、SDGsへの貢献など、社会をよくするためのツールとしてAIを活用していこうという考えが強調されています。セブン銀行やNECは、どのような取り組みを行っていますか。

松橋:代表的な取り組みとしては、データ管理があります。例えば、与信判断に「性別」のデータは使わないのは当然。また、お客様からご提供いただいたデータは、同意いただいた以外の目的では決して利用しない。目的別に使えるデータをマート化して管理しています。このような仕組みを整備して、責任に関する意識を全社に定着させています。

山本:データについては、海外でも様々な動きがあります。EUの「一般データ保護規則(GDPR)」では、データ保護に関する非常に手厚い規制を行っているといわれていますが、その第22条には完全自動化決定の原則禁止が謳われています。融資や保険、教育、人事など、人生に甚大な影響を与える局面での個人の評価をAIによるプロファイルや自動判断のみで行ってはいけないとしているわけです。日本でも、2019年3月に内閣府が公開した「人間中心のAI社会原則」では、AIの利用が憲法および国際的な規範の保障する基本的人権を侵すものであってはならないとしています。総務省も「AI利活用原則」を2019年8月に公表し、AIによって人々が差別などの不当な扱いを受けることのないよう公平性や透明性、そして説明責任を担保するようにと要請しています。

NEC
AI・アナリティクス事業部
シニアデータアナリスト
本橋 洋介 氏

本橋:NECは、お客様に提供するAIが「AI for Good」にかなうものであるかどうかをチェックするための取り組みを進めています。その1つに、AI開発時の品質チェックガイドラインがあります(図2)。ガイドラインでは、AIのミッションクリティカル性と判断への人の関与度合いを基に開発技術を整理し、それに応じて「AIの不確実性への対策がされているか」「社会的影響を考慮しているか」など100項目以上にわたる審査視点・審査指標を策定。このガイドラインをベースにAI開発に取り組んでいます。

zoom拡大する
図2 NECが策定したAI開発にまつわるガイドライン
AIのミッションクリティカル性と、判断への人の関与度合いを基にAIを整理。それに応じて100項目以上にわたる審査視点、審査指標を策定している

山本:NECは、いち早く「AIと人権に関するポリシー」を策定したように、この課題に早くから向き合っていますね。2020年7月に経済産業省が公開した「GOVERNANCE INNOVATION:Society5.0の実現に向けた法とアーキテクチャのリ・デザイン」という文書では、特にAI分野について、政府は「ゴールベース」で規制をしていく旨を表明しています。政府が具体的な「ルールメイキング」は行わないと宣言したわけですから、問われるのは企業側の意識や対応。活用面でも豊富な実績を持つNECが、この領域でも先頭を走ることには大きな意義があると考えられます。

本橋:ありがとうございます。AIを活用する側のリテラシーをどのように上げていくかはNECだけでなく、社会全体の重要な課題だと考えています。ですから、これまで当社が培ってきた育成メソドロジーを多くのお客様にも還元すべく、AIリテラシーに教育に役立つ「NECアカデミー for AI」といったAI人材育成プログラムも用意しています。高度な活用と責任あるAIの両立を念頭に、NECはこれからもAIビジネスを推進していきます。

本記事は、日経ビジネス電子版スペシャル(2021年1月21日)として掲載されたものです。


NECの目指す責任あるAI

注目が高まるホワイトボックス型AIとは

”学び”と”実践”の場を通して、プロフェッショナルなAI人材を育成します。

資料ダウンロード