Shisa.AIが新たな言語モデル「Shisa V2.1」を発表
2025年12月9日、東京都港区に本社を置くShisa.AIが日英バイリンガルの汎用チャットモデル「Shisa V2.1」シリーズを公開しました。この新モデルは、以前の「Shisa V2」からさらに進化し、特に日本語の性能と効率を向上させています。Shisa V2.1は、スマートフォンなどの端末からクラウドまで幅広く対応しており、従来のモデルから5つの異なるサイズで提供されます。中でも1.2B(12億パラメータ)から、GPT-4並みの性能を持つ70Bや14Bのモデルが特徴です。
より小さく、より賢く
Shisa V2.1の特徴は、そのサイズと性能のバランスです。特に14Bモデルは、4月に公開された70Bモデルを超える日本語性能を発揮しながら、サイズは5分の1以下。動作の速さや必要とされるメモリも大幅に改善され、同じ性能を、より低コストで提供できるようになりました。
さらに、Shisa V2.1の70Bモデルは、国産LLMの中でも最高性能を誇るShisa V2 405Bに迫る性能を実現しました。この新しいモデルは、約6分の1のサイズでありながら優れたパフォーマンスを発揮します。
実際、モデルのパラメータ数(例:14B=140億)が小さいほど必要なメモリが少なくて済むため、推論速度も向上します。
正確な日本語出力の実現
日本語対応のLLMの急速な増加に伴い、言語混在の問題が顕在化しています。Shisa.AIは、こうした「言語漏れ」を業界初の定量化評価手法であるCross-Lingual Token Leakageを開発しました。この技術により、Shisa V2.1は他のほとんどのモデルを上回る成果を収めました。
具体的には、過去のモデルと比較して最大47.8倍の改善を達成しています。日本語出力の精度が高まり、翻訳やカスタマーサポート、コンテンツ生成といった実用的なアプリケーションでの信頼性が大幅に向上しました。
API提供と商用サービス
Shisa V2.1のリリースに合わせて、テキストや翻訳、音声APIの提供が始まりました。また、「chotto.chat」という翻訳サービスも公開されており、個人および法人ユーザー向けに高品質な日英翻訳が利用可能です。これにより、高性能モデルを試すためのコストや環境構築のハードルを下げることを目指しています。
Shisa V2モデルは、経済産業省のGENIAC国産モデルとしても評価されており、日本国内でホストされているため、データレジデンシーや規制対応が必要な用途にも安心して使用できます。
Shisa.AIと今後の展望
Shisa.AIは、シリコンバレー発の技術チームを中心とするAIスタートアップであり、「日本語特化AI」と「データドリブン開発」を軸に事業を展開しています。その目標は、オープンソースLLMの進化をリードし、日本発のAIイノベーションを世界に広げることです。
今後もShisa.AIの取り組みに注目が集まります。詳しい情報や制作したモデルの体験は、公式サイトやAPIで確認できます。
関連リンク
※ Llama Community License Agreementに基づいて、正式名称は「Llama 3.2 Shisa V2.1 3B」「Llama 3.3 Shisa V2.1 70B」ならびに「Llama 3.1 Shisa V2 405B」とします。