サイト内の現在位置

「LLMが組み込まれたシステムを守るガードレール技術の検証」と「生成AIを活用したセキュリティ運用の効率化」~Hardening Designers Conference 2025 Day2 Tech Showcase~

NECセキュリティブログ

2025年8月5日

NECサイバーセキュリティ技術統括部セキュリティ技術センターの長谷川、油布です。
7/10(木)~7/12(土)に開催された「Hardening Designers Conference 2025」new window[1]にて、「LLMが組み込まれたシステムを守るガードレール技術の検証」、「生成AIを活用したセキュリティ運用の効率化」について講演しましたので、本ブログでも紹介します。

本ブログで紹介するのは、DAY2 7/11(金)の午後に開催された「Tech Showcase」と呼ばれるセッションで発表した内容になります。それぞれ講演タイトルを「LLMが組み込まれたシステムを守るガードレール技術の検証」と「生成AIを活用したセキュリティ運用の効率化」としておりトピックは異なりますが、いずれも普段の業務の中で感じた課題と、解決のための実践的な取り組みについてお話ししました。

目次

LLMが組み込まれたシステムを守るガードレール技術の検証

本セッションでは、LLMが組み込まれたシステムを守るガードレール技術の説明や実際に検証した結果を紹介しました。
近年、生成AIの活用が進み、LLM(大規模言語モデル)を利用したシステムが増加している一方で、LLMに関連する様々なセキュリティリスクが報告されています。
OWASP Top 10 for Large Language Model Applicationsnew window[2]では、LLMにおけるセキュリティリスクや軽減策が紹介されています。
プロンプトインジェクションは、開発者が意図しない情報や不正な出力を促す攻撃手法で、直接プロンプトインジェクションと間接プロンプトインジェクションに分類されます。

図 1:プロンプトインジェクション(講演資料より)

プロンプトインジェクション等の攻撃から防御するための仕組みとしてガードレールがあります。今回はガードレールとしてNVIDIA社が公開しているOSSのツールであるNeMo Guardrailsnew window[3]を使用した検証を行いました。

図 2:NeMo Guardrails(講演資料より)

NeMo Guardrailsは、Input Rails(入力制御)とOutput Rails(出力制御)の設定を行うことにより、プロンプトインジェクションなどの攻撃による機微情報の漏洩を防ぐことを目的としたツールで、比較的容易に導入することが可能です。
一方で、制御のための設定を独自に導入する場合は、調整に時間を要するといった問題点もあります。
LLMに限った話ではありませんが、セキュリティは多層防御の考えが重要で、ガードレールのみを過信せずに複数の防御機構を組み合わせて実装することが重要だと考えています。
実際にNeMo Guardrailsを使ってみましたが、導入が容易という利点がある一方で、設定の調整には時間を要する場面もありました。NeMo Guardrailsは便利なツールですが、決して完璧なものではありません。そのため、このようなツール単体に頼るのではなく、多層防御を意識したアプローチが不可欠だと改めて感じました。

生成AIを活用したセキュリティ運用の効率化

本セッションでは、生成AIによるセキュリティ運用の活用方法と、実際に活用する中で見えてきた課題をElastic AI Assistantnew window[4]を用いて架空の攻撃シナリオに沿い紹介しました。
我々は普段、早急な実態解明/ビジネスの早期復旧を目的としてセキュリティインシデント対応を行っています。こうした業務では膨大なログの調査や担当者間での知識・スキルの差、さらには調査対象となるOSや製品ごとにログの形式が異なるため、網羅的な分析手法の把握が求められます。

図 3:背景・課題、生成AIを使用する目的(講演資料より)

この課題解決に向けて、生成AIが調査観点の整理や分析支援にどこまで活用できるかを、架空の攻撃シナリオに沿って検証しました。

図 4:Elastic AI Assistantを用いた解析 ~脅威の特定・調査~(講演資料より)

検証の結果、一連の攻撃の流れや不審なコマンド例、ファイル名などの情報を提示してくれて、インターネットによる調査ではなく、生成AIから情報を得ることができました。生成AIは、膨大なログから調査起点をつくるなど初動調査において非常に有用であると感じています。
一方で、現時点では回答の抽象度が高く、詳細な解析をすべて生成AIに委ねることは難しいのが実情です。
こうした課題に対し、ナレッジデータベース(RAG)を活用した精度向上に取り組むことで、生成AIを用いたインシデント対応業務のさらなる効率化が可能になると考えています。
本セッションについて、サイバーセキュリティに関わる方々からご意見を頂き、生成AIを活用したセキュリティ運用の効率化や課題について議論する機会を得ました。今後も皆様からのご意見を活かしながら、より実効性のある生成AIの活用に取り組んでまいります。
なお、本講演者が執筆した記事「Elastic AI Assistantを使って調査してみた」[5]では、本セッションと重なる内容についても詳しく取り上げております。あわせてご覧いただけますと幸いです。

まとめ

今回のブログでは、Hardening Designers Conference 2025でご紹介した内容をお届けしました。 Hardening Designers Conferenceでは、企業によるセキュリティへの取り組みから、個人の体験に基づくセキュリティ事例まで、幅広く興味深いテーマの講演が多数行われています。ぜひ来年のご参加をご検討ください。

本ブログが皆様の業務や取り組みの一助となれば幸いです。
最後までお読みいただき、誠にありがとうございました。

参考文献

執筆者プロフィール

長谷川 奨(はせがわ しょう)
担当領域:リスクハンティング
専門分野:脆弱性診断、セキュリティ人材育成

ペネトレーションテストや脆弱性診断、社内CTFの運営などに従事。
2024年6月にIPA産業サイバーセキュリティセンター第7期中核人材育成プログラムを修了。
情報処理安全確保支援士(RISS)/CEHを保持。

執筆者の他の記事を読む

執筆者プロフィール

油布 翔平(ゆふ しょうへい)
担当領域:リスクハンティング

監視サービスの検討/導入やEDR製品の検証/分析の業務を経て、現在は脆弱性診断やインシデントレスポンス対応に従事。

執筆者の他の記事を読む

アクセスランキング