新しい日本語特化モデル「AXELIDEA-QUON-14B-Japanese-v01」の登場
2026年3月25日、Axelidea株式会社が誇る新しい日本語特化型大規模言語モデル「AXELIDEA-QUON-14B-Japanese-v01」が公開されました。この特別なモデルは、14Bパラメータを持ち、その名の通り、知識の融合に特化した全く新しいアプローチを取っています。
このモデルが他の従来型言語モデルと異なるのは、知識の量ではなく、「知識の組み合わせ方」に重きを置いている点です。従来、言語モデルは「どれだけ多くの情報を扱えるか」という性能を競ってきましたが、QUONはその思考プロセス自体に焦点を当てています。これにより、特に問題解決能力が向上しています。
特許情報から得た知識の蓄積
AXELIDEA-QUONは、膨大な特許文献を学習データとして用い、そこに含まれる問題解決の思考パターンをしっかりと習得しました。このアプローチにより、独自の問題解決のための考え方を持ち、私たちが求める創造的思考が実現されています。
実際、JA Leaderboardという日本語テキストの総合評価において、QUONはGoogleやMicrosoftのモデルを押しのけて首位を獲得しています。この実績は、モデルの信頼性と性能の高さを示す一因とされています。
技術的革新と突破口
複数のエキスパートによる訓練
QUONは、創造的思考を幅広くカバーするために、60体の専門家エキスパートを訓練しました。拡散的思考や類推的推論、視点転換、制約創造性等、さまざまなスタイルの創造性に対応できるようになっています。
創造性報酬モデル
さらに、QUONは独自の5次元創造性評価モデル(QUON-CreativityBench)を使用し、特許データの品質を多面的に評価しています。このモデルでは、独創性や流暢性など5つの基準を設け、高品質の訓練データを選別。その結果、質の高い知識を無駄にせず、利用することが可能です。
量子技術による効率化
QUONでは、60体のエキスパートから最適なチームを選定するために、量子コンピューティング技術を活用しています。この手法は、膨大な候補の中から最適な組み合わせを迅速に見つけ、効率的にモデルを強化するのを助けます。
また、今後、エキスパート数が増加しても同様の技術を適用できるため、今後の発展が期待されます。
知識保持型ファインチューニング
QUONは、知識が陥りがちな崩壊の問題、いわゆる「壊滅的忘却」を克服するために、事実知識を保持するためのファインチューニング技術を導入しています。これにより、既存の知識を優先しながら、新たな創造を行うことができます。
設計思想と目的
このモデルが掲げる理念は「アイデアは既存の要素の新しい組み合わせである」というシンプルながら深い洞察に基づいています。QUONでは、情報の関連性を慎重に管理するAttention層を用い、知識を単に増やすのではなく、知識をいかに組み合わせるかというプロセスを評価することを目指しています。
地域賞受賞の意義
この優れた技術力は、AXELIDEAが2026年3月24日に「GENIAC-PRIZE」特別賞「地域賞」を受賞したことでも証明されています。この賞は、地域の課題に立ち向かう企業に与えられるもので、Axelideaの取り組みが地域に根ざした実績を持つことを示しています。
まとめ
AXELIDEA-QUONは、これからの日本語を扱うAI技術のスタンダードとなる可能性を秘めています。その独自の技術革新と理論により、知識の組み合わせ方を新たな次元へと引き上げ、社会への影響を及ぼすことでしょう。今後の活躍が非常に楽しみです。具体的なダウンロードは、
こちらから可能です。