カラクリ株式会社が発表した新しい生成AIガードレール「KARAKURI Guardrails」
カラクリ株式会社は、最新の生成AI技術に対応するために日本語特化のガードレール「KARAKURI Guardrails」のβ版をリリースしました。この取り組みは、ユーザーが安心してAIを利用できる環境を構築するための重要なステップです。本記事では、その背景や特長について詳しく掘り下げていきます。
開発の背景
生成AIの商業利用が広がる中、特にOpenAI社によるChatGPTのガードレール制度は重要な転換点となりました。2022年11月には、有害で不適切なコンテンツを制限する仕組みが導入され、以降、GoogleやNVIDIAなど多くの企業が同様の機能の強化に着手しています。しかし、これらのシステムは主に英語圏向けに設計されており、日本語の特性に最適化されていません。そのため、日本語特有の曖昧さや敬語、文脈依存性が考慮されていないことで、誤解やリスクが生じる可能性があります。
カラクリは、大規模言語モデル「KARAKURI LM」を開発する中で得た知見を基に、言語や文化に即したガードレールの開発に取り組んでいます。これによって、日本語の特殊性に対応しながらAIの安全性を高める基準を確立することを目指しています。
KARAKURI Guardrailsの特長
新たに発表された「KARAKURI Guardrails」は、他のテクノロジー企業が提供しているガードレール機能に比べても、日本語の独自の表現や文化に基づいた高度な検知機能を持つことが特長です。企業のニーズに合わせてカスタマイズすることで、より精緻なリスク管理と安全なコミュニケーションを実現します。具体的には次のような機能が含まれています:
AIが誤った情報を生成するリスクを検出し、信頼できる情報と照合して正確な情報提供を行います。
会話の文脈を理解し、主題から逸脱した応答を特定することで、より自然で効率的なコミュニケーションを支援します。
悪意ある入力や攻撃パターンを判断し、安全な環境を維持します。
プライバシーに関わる情報を検出し、適切にマスキングまたは削除することで、データセキュリティを強化します。
組織のポリシーに基づき、禁止されている表現を特定して適切なコンテンツ管理を行います。
国際的な認知と今後の展望
さらに、2024年12月にラスベガスで開催される「AWS re:Invent」で、ソニーからこの「KARAKURI Guardrails」が日本の優れたAIモデルとして紹介されることが決まりました。この発表は、カラクリの技術が国際的に評価されている証でもあります。
会社概要
カラクリは「Friendly Technology」を掲げるAIスタートアップであり、大規模言語モデルを活用したカスタマーサポートの実用化を目指しています。2018年にBERTの研究を開始し、2022年からはGPTを含む言語モデルに注力しています。また、高島屋やSBI証券、セブン-イレブン・ジャパンなど、多くの大手企業にそのAIソリューションが選ばれています。
カラクリは今後も日本ならではの生成AIの発展に寄与し続けることでしょう。