人権尊重に向けたNECのAIガバナンスの取り組み

Vol.75 No.2 2024年3月 ビジネスの常識を変える生成AI特集 ~社会実装に向けた取り組みと、それを支える生成AI技術~

NECは、AIの利活用に関連した事業活動が人権を尊重したものとなるよう、「NECグループ AIと人権に関するポリシー」を策定し、AIガバナンス実践のための社内体制やルール整備、人材育成などを行っています。また、外部の多様な有識者から構成される「デジタルトラスト諮問会議」を実施することで、AIの利活用において生じる新たな課題への対応力を強化しています。本稿では、生体認証を含むAI事業における、NECのAIガバナンスの取り組みを紹介します。

1. はじめに

近年、AI技術の進化により、新サービスやイノベーションの創出が進んでいます。例えば、コールセンターのサポート、ダイナミックプライシング、検索エンジンの効率化、高速トレードなど、多岐にわたる分野で利用されています。また、生体認証は、政府、空港、公共施設、エンターテイメント施設において、入退管理、本人確認、おもてなしなどで利用されており、私たちの生活で身近なものとなってきています。このようなAIの社会実装や生体情報をはじめとするデータの利活用(以下、AI の利活用)は、人々の生活を豊かにする可能性があります。

しかし、技術の誤用は差別やプライバシー侵害などの人権課題を引き起こし、消費者に多大な迷惑をかける恐れがあります。例えば、ローン審査や採用選考での性別や人種差別、本人同意のない行動や趣味・嗜好の把握、国家による監視の乱用などにより、プライバシーや自由の侵害につながる可能性があります。このようなことが起きてしまうと、当該サービスの終了を余儀なくされるだけにとどまらず、サービス提供企業のレピュテーションの悪化、更にはAIなどの新技術全般に対する不安を増大させる可能性があります。

したがって、AIなどの新技術にかかわる企業は、その開発や利用について適切なガバナンスを講じる必要があります。AIガバナンスの推進を通じて、サービス提供後のレピュテーションリスクの防止や、過剰なリスク回避による機会損失の防止に寄与するとともに、その取り組みに対する外部からのフィードバックをAIガバナンスの改善につなげられれば、それは個社の企業価値向上にとどまらず、社会全体でAIの価値享受や利用者のリスク低減に貢献することになります。

NECは、AIの利活用を通じて、安全・安心・公平・効率という価値を提供できると考えており、AIの利活用に関連した事業活動が人権を尊重したものとなるようAIガバナンスに重点を置いた取り組みを行っています。第2章からは、NECのAIガバナンスの取り組みを具体的に紹介していきます。

2. AIガバナンスの推進体制

NECでは、2018年にAIの利活用に関連した事業活動が人権を尊重したものとなるよう、全社戦略の策定・推進を担う組織として「デジタルトラスト推進本部(現、デジタルトラスト推進統括部)」を設置し1)、2019年に「NECグループ AIと人権に関するポリシー(以下、全社ポリシー)」を策定しました2)。また、コーポレートガバナンスとしてAIガバナンス体制を構築し、AIガバナンス遂行責任者(CDO: Chief Digital Officer)を置き、リスク・コンプライアンス委員会や取締役会との関係性を明確化するとともに、外部有識者会議の「デジタルトラスト諮問会議」を設置し、外部とも積極的に連携するなど、経営アジェンダとしてAIガバナンスに取り組んでいます(図1)。

図1 AIガバナンスの推進体制

3. NECグループ AIと人権に関するポリシー

全社ポリシーは、デジタルトラスト推進統括部が国内外の原則や自社のビジョン・価値・事業内容などから検討し、社内の研究開発・サステナビリティ・リスク管理・マーケティング・事業部門などの関係部門や、外部の有識者・NPO・消費者など社内外のさまざまなステークホルダーとの対話を経て、2019年4月に策定しました。このポリシーは、AI利活用においてプライバシーへの配慮や人権の尊重を最優先するために策定されたものであり、図2のように、「公平性」「プライバシー」「透明性」「説明する責任」「適正利用」「AIの発展と人材育成」「マルチステークホルダーとの対話」の7つの項目で構成されています。

図2 NECグループ AIと人権に関するポリシー

4. AIガバナンスの実践に向けた取り組み

全社ポリシーを実践するため、デジタルトラスト推進統括部が中心となり、社内制度の整備や従業員研修などを実施しています。次からは、「リスク軽減プロセス」によるリスクの見極めと対策、「人材育成」を通じた従業員のリテラシー向上、そして「ステークホルダーエンゲージメント」により社外からの多様な意見を活動に取り入れる取り組みについて紹介します(図3)。

図3 AIガバナンスの全体図

4.1 リスク軽減プロセス

ガバナンス体制や遵守すべき基本的事項を定めた全社規程、対応事項や運用フローを定めたガイドラインやマニュアル、リスクチェックシートを整備し、企画・提案フェーズから各フェーズにおいてAI利活用のリスクチェックと対策を実施する枠組みを構築しています(図4)。リスクチェック・対策にあたっては、デジタルトラスト推進統括部及び関連部門が連携して、法令の遵守や人権を尊重した取り組みとなるように確認・対策をしています。 更に、お客様やパートナーがAIを適切に利活用できるよう、NECのノウハウや知見を生かし、利用目的の公表などについてデザインサンプルを提供し、サポートを行っています。

図4 リスク軽減プロセス

4.2 人材育成

全社ポリシーに基づいて、事業活動で人権を尊重した適切な行動ができるよう、NEC及び国内外の関係会社の役員や従業員に対して立場に応じた到達目標を設定し、研修を実施しています(図5)。全従業員向けのWeb研修では、AI技術やAI倫理の重要性、関連法規制の動向、AIの利活用に伴う人権・プライバシー配慮事項、全社ポリシーや運用などを学んでいます。また、AI事業関係者や経営層に向けては、外部有識者を講師に迎え、最新の市場動向やケーススタディも交えたセミナーを実施し、理解の促進を図っています。

図5 人材育成

4.3 ステークホルダーエンゲージメント

法規制や社会受容性などの社会動向に対応するため、さまざまなステークホルダーと連携・協働して取り組んでいます。

外部有識者で構成される「デジタルトラスト諮問会議」をAIガバナンス遂行責任者の諮問機関として開催しています。会議は法律家、法学者、サステナビリティや人権などの分野のNPO関係者、消費者団体代表など、法制度や人権・プライバシー、倫理に関する専門的な知見を有する外部有識者で構成されています。この会議を通じて、社外の多様な意見を取り入れ、AIの利活用に伴う新たな課題への対応力を強化しています。2023年7月には、生成AIをテーマに会議を開催し、生成AI利用者と生成AIプラットフォーマーの2つの立場を有するNECとして、生成AIの社会実装に向けて取り組むべきことや貢献できることなどについて意見を求め、得られた意見を今後の取り組みに反映しています。

また、AI社会の仕組み作りに向けて、産業界や政府機関、国際機関、アカデミアなど国内外の多様なステークホルダーと積極的に連携しています。

5. アジャイルな運用

これらのAIガバナンスの取り組みは、国内外の法令・ガイドラインに基づいて実施しています。また、経済産業省が2021年7月に公表した「AI原則実践のためのガバナンス・ガイドライン」のアジャイル・ガバナンスの考え方に基づいて、社会環境の変化に応じた対応や社内ルール・運用の見直しを柔軟に行っています。2023年には、生成AI(大規模言語モデル:LLM)を社内業務、研究開発、ビジネスで積極的に利活用する方針を掲げるとともに、「全社ポリシーや関連する社内規程に沿ったガイドライン・ルールの整備」「社会情勢の変化を継続的に分析・評価した適正な利用の徹底」「社員のリテラシー向上のための社内教育の実施」「専門家による社内専門窓口の整備」などを通じて積極的かつ責任ある利用を促進しています。

6. むすび

これからもNECのPurposeである「安全・安心・公平・効率という社会価値を創造し、誰もが人間性を十分に発揮できる持続可能な社会の実現」に向け、NECは、人権尊重を最優先にしたAI提供と利活用に取り組んでまいります。

参考文献

執筆者プロフィール

松原 昭彦
デジタルトラスト推進統括部
主任
徳島 大介
デジタルトラスト推進統括部
ディレクター
島村 聡也
デジタルトラスト推進統括部
デジタルトラスト推進統括部長

関連URL