GoogleがEmbeddingGemmaを発表、モバイル向けに最適化されたオープンソースの埋め込みモデル。3.08億パラメータで、MTEBベンチマークで500M未満の多言語テキスト埋め込みモデルとして最高評価。RAGと意味検索をサポートし、オフラインでも優れた性能を発揮。....
s3dev-ai
これはGoogleのembeddinggemma-300mベースモデルの様々なGGUF形式の量子化バージョンで、効率的なデプロイとさまざまなシーンでの使用に特化して最適化されています。このモデルは文の埋め込みと類似度計算タスクに焦点を当てています。
mlx-community
これはMLX形式に変換されたテキスト埋め込みモデルで、GoogleのEmbeddingGemma - 300mモデルを元に変換され、文の類似度計算とテキスト埋め込みタスクに特化しています。モデルはBF16精度を採用し、Appleチップ搭載のデバイスでの効率的な推論に適しています。
EmbeddingGemma-300m-8bitはsentence-transformersライブラリに基づいて実装された文の類似度モデルで、MLX形式での実行をサポートし、文の埋め込みと類似度の計算に特化しています。このモデルは元のモデルから変換され、効率的なテキスト特徴抽出能力を提供します。
EmbeddingGemma 300M 4bitはGoogleが開発した軽量級のテキスト埋め込みモデルで、MLXフレームワークに特化して最適化されています。このモデルは、テキストを高品質なベクトル表現に変換することができ、様々な自然言語処理タスク、特に文章の類似度計算と特徴抽出に適しています。
ggml-org
embeddinggemma-300m-qat-q8_0 GGUFは、Googleのembeddinggemma-300mモデルに基づく量子化バージョンで、特徴抽出と文の類似度計算に特化しています。このモデルは量子化による最適化を行い、高い精度を維持しながら、モデルサイズと推論コストを大幅に削減しています。
embeddinggemma-300Mは、量子化によって最適化された軽量なテキスト埋め込みモデルで、Googleのembeddinggemmaアーキテクチャに基づいており、QAT(量子化感知トレーニング)とQ4_0量子化技術を用いており、パラメータ数は3億です。このモデルは、高品質なテキスト埋め込みベクトルを生成するために特別に設計されており、文の類似度計算や特徴抽出などのタスクをサポートしています。
Claudeのローカル意味論的コード検索ツールです。EmbeddingGemmaモデルを使用して、完全にオフラインで多言語のコードをスマートに検索します。MCPプロトコルを介してClaude Codeと統合し、プライバシーを保護し、APIキーを必要としません。