Lakera、AIエージェントのセキュリティ新基準を提案
チェック・ポイント・ソフトウェア・テクノロジーズの傘下にあるLakeraが新たに発表したオープンソースのセキュリティ評価ツール「Backbone Breaker Benchmark(b3)」が、AIエージェントのセキュリティを大幅に向上させる制度的なアプローチを提供します。このイニシアチブは、AIエージェントにおける大規模言語モデル(LLM)の脆弱性を識別し、実際の攻撃シナリオに基づいて評価することに焦点を当てています。
b3の特徴と目的
b3は「脅威スナップショット」というコンセプトに基づいています。これにより、AIエージェント全体をシミュレーションするのではなく、脆弱性が発生しやすい特定の重要ポイントに焦点を当てることが可能になったのです。この新たな手法により、AIモデルを開発する企業やプロバイダーは、複雑さを排除した状態で、システムがどの程度の攻撃に耐えられるかをより正確に評価することができるようになります。Lakeraの共同創設者であり、チーフサイエンティストのマテオ・ロハス=カルーラ氏は、「私たちはb3ベンチマークの開発を通じて、これまで見過ごされていた脆弱性を、より体系的に明らかにしたいと考えています」と述べています。
脅威スナップショット評価の詳細
b3は、10種類の代表的な脅威スナップショットを提供し、Gandalf: Agent Breakerを通じて収集された19,433件の高品質な攻撃データセットを元に構築されています。これには、以下のような攻撃手法が含まれています:
- - システムプロンプトの漏洩
- - フィッシングリンクの挿入
- - 悪意のあるコードの注入
- - DoS攻撃
- - 不正なツール呼び出し
これらの評価は、セキュリティの向上に向けた重要な指標となります。初期の研究結果では、推論能力の向上がセキュリティを大幅に改善し、モデルのサイズとセキュリティ性能には関連性がないことが明らかになっています。また、クローズドソースモデルは一般的にオープンソースモデルよりも性能が高いものの、上位のオープンモデルがその差を縮めつつあることも示されています。
Gandalf: Agent Breakerの紹介
Gandalf: Agent Breakerは、リアルな攻撃シナリオを再現したハッキングシミュレーションゲームです。ゲーム内の10種類の生成AIアプリケーションは、実際のAIエージェントの動作を模倣し、プレイヤーはさまざまな防御機能を乗り越えるスキルを養うことができます。このプラットフォームには、複数の難易度と防御機能が用意されており、プレイヤーがプロンプトエンジニアリングやレッドチーミングのスキルを磨くための最適な環境が整っています。
Gandalfの初期バージョンは、Lakeraの社内ハッカソンから生まれたもので、ブルーチームとレッドチームが協力し合い防御と攻撃を競い合う中で進化してきました。2023年のリリース以来、Gandalfは世界最大級のレッドチーミングコミュニティに成長し、8,000万件以上のデータポイントを蓄積しています。このゲームは、単なるエンターテインメントを超えて、生成AIアプリケーションの脆弱性を明らかにする重要な役割を果たしています。
Lakeraのビジョン
LakeraはAIエージェント向けの先進的なセキュリティプラットフォームとして、多くのフォーチュン500企業や大手テクノロジー企業の保護を行っています。AIサイバーリスクから企業を防御するため、独自のAIやGandalfと連携し、リアルタイムで進化し続けるシステムを提供しています。2021年に設立されて以来、Lakeraはチューリッヒとサンフランシスコを拠点に、世界中のクライアントをサポートしています。
この新たな取り組みにより、LakeraはAIファーストのセキュリティの重要性をより広め、業界全体のセキュリティレベルを引き上げることを目指しています。さらに詳細については、公式ウェブサイトやLinkedInを通じて情報が発信されています。安全で信頼性の高い未来を実現するために、Lakeraの革新的なソリューションに注目です。