Zyphra、小型言語モデルZamba2-2.7Bを発表:速度2倍向上、メモリコスト27%削減
Zyphra社は、小型言語モデル分野における画期的な成果であるZamba2-2.7B言語モデルを発表しました。パフォーマンスと効率性が大幅に向上し、約3兆トークンのトレーニングデータセットにより、推論時のリソース要求が低減され、モバイルデバイスアプリケーションに最適なソリューションとなっています。主なハイライトとしては、初回応答時間が2倍向上、メモリ使用量が27%削減、生成遅延が1.29倍短縮されており、リアルタイムインタラクションを必要とするバーチャルアシスタントやチャットボットなどのアプリケーションに特に適しています。Zamba2-2.