AI21Labsは先日、最新のJamba 1.6シリーズ大型言語モデルを発表しました。これは、現在市場で最も強力かつ効率的な長文処理モデルと言われています。従来のTransformerモデルと比較して、Jambaモデルは長文コンテキストの処理において、速度と品質の両面で優れた性能を発揮します。推論速度は同等のモデルと比べて2.5倍速く、新たな技術的ブレークスルーを示しています。
Jamba 1.6シリーズには、Jamba Mini(12億パラメーター)とJamba Large(94億パラメーター)が含まれており、ビジネス用途向けに最適化されています。関数呼び出し、構造化出力(JSONなど)、現実的な生成能力を備えています。これらのモデルは、企業レベルのインテリジェントアシスタントから学術研究まで、幅広い用途で重要な役割を果たします。
このモデルは、Jamba Open Model Licenseというオープンソースライセンスを採用しており、関連条項に従う限り、研究および商業利用が可能です。また、Jamba 1.6シリーズの知識カットオフ日は2024年3月5日であり、英語、スペイン語、フランス語、ポルトガル語、イタリア語、オランダ語、ドイツ語、アラビア語、ヘブライ語など、複数の言語をサポートしており、グローバルユーザーのニーズに対応しています。
性能評価において、Jamba Large 1.6は複数のベンチマークテストで優れた結果を示しました。Arena Hard、CRAG、FinanceBenchなどの標準テストにおいて、同等の競合製品を上回るスコアを獲得し、卓越した言語理解力と生成能力を証明しています。特に長文処理においては、Jambaモデルの性能が際立っています。
効率的な推論を確保するために、Jambaモデルを使用するユーザーは、関連するPythonライブラリをインストールし、CUDA対応デバイスを用意する必要があります。vLLMまたはtransformersフレームワークを使用して、このモデルを実行できます。大規模GPUのサポートにより、Jamba Large 1.6は最大256Kのコンテキストを処理できます。これは、以前のモデルでは実現できなかったことです。
モデル:https://huggingface.co/ai21labs/AI21-Jamba-Large-1.6
要点:
🌟 Jamba 1.6モデルは、長文処理において速度と品質が向上し、複数の言語をサポートしています。
🚀 オープンソースライセンスにより、研究と商業利用が可能になり、技術共有が促進されます。
💡 複数のベンチマークテストで優れた結果を示し、競合製品を凌駕しています。