オルツの革新:言語モデル「LHTM-OPT2」が記録的精度と推論速度を実現
オルツが誇る最新の言語モデル「LHTM-OPT2」が、国内において画期的な成果を上げました。この軽量型LLMは、パラメータが最適化された設計により、小規模なGPUマシンでも高品質な成果を出すことを可能にしました。特に日本語の検索拡張生成(RAG)において、非常に高い精度と推論速度を実現しています。
「LHTM-OPT2」とは?
「LHTM-OPT」は、小規模なGPUを用いても実用的に動作するよう設計された大規模言語モデルです。その最新バージョンである「LHTM-OPT2」は、特に日本語での性能を重視して開発されました。この言語モデルの評価は、オルツが新たに開発したWikipediaデータを利用したRAG質問・回答のデータセットで行われました。
高精度の背後に隠れた工夫
オルツが独自に作成したWiki RAGデータセットは、日本語Wikipediaから特定の段落を抽出し、それに基づいて質問を生成。その段落と質問、正解の組み合わせを専門家が再確認・修正することによって、高品質なデータベースが形成されました。また、東京大学の入学試験に関連する国語データセットも使用し、実際の試験問題に基づく評価が行われました。
この結果、「LHTM-OPT2」は、同じく注目されているGPT-4oとほぼ同等の精度を持ち、日本語の理解力も高いことが明らかになりました。特に、Wikipediaデータセットにおける精度は、LHTM-OPT2が91.0%、GPT-4oが90.8%という結果を示しています。また、東京大学の入試問題に対する評価でも94%の精度を達成しました。
国内最優位の精度と速度
さらに「LHTM-OPT2」は、国内の全ての軽量型言語モデルの中で最高精度を記録。これにより、JGLUEやJapanese MT-Benchといったベンチマークテストでも、軽量型LLMとして最も高いスコアを獲得しました。
推論速度も見逃せません。SambaNova社との共同開発により、このモデルは日本語推論時に平均500TPS、最高時には796TPSを達成しました。これは、既存のLLMの中で日本語専用のものとしては最高の速度となっています。
未来への展望
オルツは今後も「LHTM-OPT」シリーズのさらなる開発を続け、より高精度かつ効率的な言語モデルを提供することを目指します。これにより、世界水準の技術を持つ企業としての地位を確立し、顧客に最高品質のソリューションを提供し続けることで、日本企業の労働生産性向上を図っていく方針です。
今後の展開に、ぜひご注目ください。
【関連情報】
私たちオルツは、AI技術を駆使して「人の非生産的労働からの解放」を目指しています。関連サービスも多数展開しているため、興味がある方はお気軽にお問い合わせください。