サイト内の現在位置

Llion Owen Jones 氏、Lukasz Kaiser 氏、森永 聡 氏、小山田 昌史 氏、Haifeng Chen 氏、花沢 健 氏Llion Owen Jones 氏、Lukasz Kaiser 氏、森永 聡 氏、小山田 昌史 氏、Haifeng Chen 氏、花沢 健 氏

AI研究のグローバルリーダーが語る
「生成AIの進化と未来像」

AIエージェントは社会実装フェーズへ
新たな価値創造に向けて今準備すべきこと

ChatGPTの登場以来、生成AIは急速に普及しつつある。ChatGPTの基盤ともいえる技術、Transformerを提唱した論文「Attention Is All You Need」の共著者のうち2人を交えて、最前線のAI(人工知能)研究者6人による座談会が開催された。生成AIの有効な活用法、将来の社会像、よりよい社会をつくるための課題など、語り合ったテーマは多岐にわたる。その一部を紹介したい。

効果的な生成AIの用途を探索する

――みなさんは普段、生成AIをどのように使っていますか。有効な使い方についてもお聞きします。

Jones 最も有効な使い道の1つはプログラミングです。それは、私にとっての主要な用途でもあります。以前は、同じようなコードをたくさん書く必要がありました。退屈な仕事でしたが、今は「このようなAIモデルをつくるために必要なコードは?」とAIに聞けばコードが生成されるので、興味のある仕事に集中することができるようになりました。

Llion Owen Jones
Sakana AI
CTO

Llion Owen Jones 氏

Kaiser プログラミングにおける有用性は私も実感しています。加えて、今開発中のAIエージェントはWeb検索でよく使っています。例えば、効率的なアテンションメカニズムに関する最新論文を検索すると、5000件ほどヒットします。自力では読み切れませんし、PDF情報は本物かどうかを即断することもできません。AIエージェントはこれらの論文を個別にチェックして、真偽の評価とともに、私の質問への回答をまとめて提示してくれます。

Lukasz Kaiser
OpenAI
Member of Technical Staff

Lukasz Kaiser 氏

小山田 私はコーディングエージェントを多用しています。コードを書くスピードが5倍、10倍になるだけではありません。「コードを書く→実行→エラー特定」というプロセスを繰り返して、コードを検証することもできる。極めて有効な使い方だと思います。Kaiserさんの触れた検索も有望な用途だと思います。実際にNECは生成AIベースの独自検索エンジンを開発しました。

森永 私は日常業務の中で、新技術の製品化や事業化について考えています。生成AIは提案書やスピーチ原稿の作成などで活用していますが、そのまま使うわけではありません。情報の受け手に何かしらの意外性を感じさせるよう、生成AIの回答は背景情報として用いつつ、独自の内容にするための工夫を加えています。

森永 聡
NEC
研究開発部門 上席主席研究員

森永 聡 氏

Chen 私の仕事は膨大なデータの分析ですが、生成AIを用いて分析のためのコードを作成することが多いです。生成AI活用の手法をいろいろ試してみるのが面白いですね。

生成AIの安定性や精度を評価する仕組み

――生成AIは今後、どのような方向に進化するでしょうか。

Kaiser 半年、1年後にはリーズニングとAIエージェントが、密につながるようになるでしょう。リーズニングとは、回答などに至る道筋を自律的に学ぶ論理的思考を指します。リーズニングによって、生成AIは作成したコードを自ら実行し、エラーが出れば別のコードを試すこともできる。リーズニングによって、AIエージェントの利便性は劇的に高まります。

Jones AIエージェントが注目されていますが、現段階では品質が安定しているとはいえないと思います。安定化の鍵がリーズニング。正しくリーズニングできるようになれば、AIは多くの作業をミスなく実行できるでしょう。私がCTO(最高技術責任者)を務める「Sakana AI」ではリーズニングの実装に取り組んでおり、論文の検索や研究アイデアの発案・改良、コードの記述、論文の執筆などで試しています。まだ完成形ではありませんが、遠からず複雑かつ困難なタスクを実行できるようになると考えています。

小山田 私はAI関係の学会で多くの論文を査読していますが、最近は論文が多くて大変です。優れた論文を選ぶためには、何らかの基準が必要。同じように、LLM(大規模言語モデル)の開発でもモデルを評価する基準が求められます。LLMが次のステージに進化するためには、そのLLMの回答を正しく評価する報酬モデル(LLMの回答が正しいか間違っているか、良しあしを判断する教師)が必要です。よって、各分野においていかにロバストな報酬モデルを用意するか、それは機械学習的なモデルに限らず何らかのシステムであれば良いと思いますが、それらを分野・ドメインごとに用意していくことが将来の開発においては課題になると思っています。

小山田 昌史
NEC
AIテクノロジーサービス事業部門
生成AI技術開発統括部
上席プロフェッショナル・主席研究員

小山田 昌史 氏

――AIの健全な進化に向けて、どのようなポイントに注意すべきでしょうか。

Jones 私たちは、異なるAIモデルを融合するモデルマージについて研究しています。今は人間がどのAIモデルを融合するかを選んでいますが、将来はAIが自動で判断するかもしれません。それはAIの高度化を加速させると思いますが、一方でリスクもあります。AIが異常な振る舞いをするといった “病気”になる可能性を考慮すると、AIがあまりに複雑化することには慎重であるべきです。そのAIを世に出すまでに、すべての異常行動をチェックすることはできないからです。

森永 そうした懸念を払しょくするために、AIのテスト環境やサンドボックスなどを提供するビジネスが登場するかもしれませんね。

AIエージェントのエコシステムと暗号資産

――AIエージェントは今後どのように進化するでしょうか。

Kaiser AIエージェントのWebサイト検索やコード作成の結果は、現状では人間が見て確認しているはずです。今後は、他のAIエージェントと対話し、試行錯誤しながら強化学習を通じて自らを改良するようになるでしょう。AI自身が自らの改良をスピードアップするために、お金を払って他社のAIを利用するケースも増えるのではないでしょうか。そのような時代に備えて、AIの価値交換について考えておく必要があります。0.001ドルといった超少額決済ができないクレジットカードでは対応が難しく、暗号通貨が有力な選択肢となるでしょう。

Chen AIエージェント間の通信はP2P(Peer-to-Peer)でも可能ですし、中央のコーディネーターが各タスクを監視・調整する場合もありますね。

Haifeng Chen
NEC Laboratories America
Department Head , Data Science and System Security Department

Haifeng Chen 氏

小山田 ユースケース次第ですが、中央集権型と分散型は両立できると思います。現実世界でフリーマーケットとスーパーが共存しているのと同じ。そこで重要なのが、報酬を得るまでの時間だと思います。例えば、ソフトウエアのエラーを指摘すると、何らかの報酬が支払われるインセンティブシステムは今でも存在します。同じような仕組みはAIエージェントでも可能だと思いますが、分野によってはタスクの評価に時間がかかる場合もあるでしょう。

森永 私たちのチームは自動交渉技術を開発しており、その成果の一部は実務に適用されています。NECのグループ企業は2年ほど前から、調達部門で自動交渉AIを活用しています。部品サプライヤーとの間で、納期や数量などを交渉するという使い方です。交渉する際の評価基準には直接的な利益だけでなく、利益の長期的な安定性なども含まれます。

小山田 そこで行われている評価シミュレーションには、ある種のインセンティブ構造が内包されていますね。そこに、暗号資産を組み込むこともできるでしょう。

森永 今後、AIエージェントのエコシステムに暗号資産を統合することは可能だと思いますし、それは大きな経済圏に成長するかもしれません。

Chen AIエージェントの普及に伴い新たなビジネスが生まれ、同時に多くの課題も見えてくるでしょう。例えば、AIエージェントを取引する市場、認証・監視などのサービス、カスタマイズサービスなどです。そうした新たなサービスが、AIエージェントの普及をさらに加速させるでしょう。

花沢 健 氏(司会)
NEC
データサイエンスラボラトリー
所長

花沢 健 氏

――生成AIのリスクについては、どのように考えていますか。

Kaiser 今多くの企業がAIチャット機能を提供していますが、それとは別に、監視用のAIプロセスも走っています。例えば、応答するAIが違法な回答などをすると、監視AIがチャットを停止させる。ただ、新しい知識を十分に学習していないAIが間違った回答を示し、それに監視AIも気づかないといったことは常に起こりえます。

Jones AIのリスクについての教育を強化すべきだと思います。AIが生成したコンテンツの検出は不可能です。コンテンツの確からしさについては、人間が評価するしかありません。

座談会

小山田 AIによってSNSのコンテンツが大量に生成されれば、人間はそれに影響されてしまう。今もエコーチェンバー(同じような情報ばかりに接する現象)は問題視されていますが、もっと深刻な事態が生じるかもしれません。

Jones 対策はすでに存在します。SNSやWebサイトに載せる写真や動画など、本物のコンテンツに暗号署名を付与するサービスがあります。

――テクノロジーの進化だけに注目するのではなく、その活用方法を学ぶことも重要ですね。

チームを成功に導くためのポイント

――生成AIにおける画期的な論文「Attention Is All You Need」は8人による共著で、そこにJonesさんとKaiserさんは名を連ねています。チームでの仕事を成功させるために意識していることはありますか。

Jones 私が意識しているポイントは2つあります。まず、論文のチームでもSakana AIでも重視していることですが、研究者たちが重要と考え、かつ興味を持っていることに取り組んでもらうこと。各メンバーがやりがいを感じれば、とてもいいチームになるでしょう。もう1つは、多様な意見やアイデアを自由に言える環境です。論文を執筆中に感じた心地よい雰囲気は、起業したばかりのSakana AIでも心掛けています。

――多様性のあるチームは素晴らしいと思いますが、一方で異なる文化や考えを持つ人たちの管理は難しくなるとも感じます。マネジメントのコツのようなものはありますか。

Jones 経営者の視点でいうと、採用が極めて重要です。自社の文化と親和性の高い人を、慎重に見極める必要があります。期待通りにいかないこともありますが、それは目標に到達するために取るべきリスクだと思います。

Kaiser すべてのチームメンバーが自由に意見を言い合える環境づくりが、何よりも重要です。論文を書いているとき、チームのメンバーが会議室に集まって議論した記憶はありません。堅苦しいやり方ではなく、みんなが気軽に議論できるような雰囲気が大事です。本音で自由に話し合うことで、チームはよりよい方向に前進することができる。その意味で、心理的安全性は非常に重要です。

座談会

Jones 論文のチームには、部下に自分の意見を押し付ける管理者はいませんでした。方向性や業務に関する指示もありません。私たちはオフィスを歩き回って、誰かに質問したり、議論をしたりしながら論文のアイデアを育ててまとめ上げました。

小山田 論文の共著者は8人ですが、最初から8人だったわけではないと思います。どうやって仲間を見つけていったのですか。

Kaiser コーヒーマシンの近くをうろついていました。通りがかった社員と少し話せば、研究テーマを教えてくれます。こうして、研究内容が似ているメンバーが集まりました。

小山田 そうして、雪だるま式にメンバーが増えたのですね。

Kaiser はい、コーヒーマシンのおかげです。ただ、Googleのような従業員10万人以上の組織全体で同じことはできません。トップがすべての社員と対話することは不可能でしょう。そこで、組織構造が生まれますが、部門間の利害が対立することもある。容易には答えを出せない問題です。いつか、AIエージェントに任せられる時代が来ることを期待したいですね 。

AI研究のグローバルリーダーが語る「生成AIの進化と未来像」
<ダイジェスト版>

  • 全編動画では、ダイジェスト版ではご覧いただけなかった「今後、AIはどのような分野で破壊的イノベーションをもたらすのか?」や「AIが極限まで進化した未来において人間の役割や社会はどのように変化するのか?」といった内容もご視聴いただけます。

関連リンク

NEC Generative AI
https://jpn.nec.com/LLM/index.html
NEC開発の生成AI「cotomi」
https://jpn.nec.com/LLM/cotomi.html