マスク氏がXプラットフォームの新推薦アルゴリズムをオープンソース化。Grokと同様のTransformerアーキテクチャを採用し、ユーザーインタラクション確率予測によるコンテンツ順位付けを実現。技術の透明性向上と進化を目的とする。....
NVIDIAがPersonaPlex-7B-v1音声対話モデルを発表。従来の「一問一答」型AI音声アシスタントを超え、より自然な対話を実現。単一Transformerアーキテクチャで音声理解と生成を直接処理し、従来のASR、LLM、TTSの連携処理が不要。....
DeepSeekチームがエングラムモジュールを発表し、疎な大規模言語モデルにおいて「条件付き記憶軸」を導入しました。これは、従来のTransformerが繰り返し知識を処理する際に計算リソースを浪費してしまう問題を解決することを目的としています。このモジュールは、ミックス・オブ・エキスパートモデルの補完として機能し、N-gram埋め込み技術をモデルに統合して、繰り返しパターンの処理効率を向上させます。
腾讯混元开源文生3D动作大模型HY-Motion1.0は、10億パラメータを持つDiffusion Transformerアーキテクチャを採用し、高品質な標準化されたスケルトンアニメーションを生成します。ゲーム開発者、アニメーター、研究者の効率向上を支援し、3Dアニメーション制作のハードルを下げ、個人クリエイターの創造性実現を促進します。....
Diffusion Transformerアーキテクチャに基づき、10億パラメータを持つテキストから3D動作を生成するモデルです。
Diffusion Transformerに効率的で柔軟な制御フレームワークを提供します。
AI21 Jamba Large 1.6は、長文処理と効率的な推論に優れた、強力な混合SSM-Transformerアーキテクチャの基礎モデルです。
TransformerベースのViTPoseモデル群
Bytedance
$1.2
入力トークン/百万
$3.6
出力トークン/百万
4
コンテキスト長
Tencent
$1
$4
32
$0.8
$2
$3
$9
16
$1.5
$6
128
Google
$0.35
$0.7
131
Alibaba
-
$12
28
Openai
$1.05
$4.2
1k
Chatglm
$100
optimum-internal-testing
これはHugging Face Hub上の🤗 Transformersモデルです。具体的な情報は後で補足されます。モデルカードは自動生成されており、モデルの公開者がより詳細な情報を提供する必要があります。
Sachin-0001
これは🤗 Transformersライブラリに基づく双方向自己回帰Transformerモデルで、モデルセンターにアップロードされています。モデルカードはシステムによって自動生成され、具体的な技術詳細とアプリケーション情報はさらに補足する必要があります。
riverjiang
これはHugging Faceモデルセンターに公開されたTransformerモデルで、具体的な情報は補充待ちです。モデルカードは自動生成され、詳細情報をさらに補充する必要があります。
onnx-community
Supertonic-TTS-ONNXは、ONNX形式に基づくテキストから音声への変換モデルで、英語のテキストを自然で流れる音声に変換することができます。このモデルはSupertone/supertonic基礎モデルに基づいて開発され、Transformers.jsライブラリ用に最適化されており、ブラウザ環境で効率的に動作します。
allenai
Olmo 3はAllen Institute for AI (Ai2)によって開発された一連の言語モデルで、7Bと32Bの2種類の規格があり、InstructとThinkの2種類のバリエーションがあります。このモデルはTransformerアーキテクチャに基づいており、長い思考チェーン能力を持ち、数学やコーディングなどの推論タスクの性能を効果的に向上させることができます。
SAM3は概念ベースの任意分割モデルで、入力された点やボックスなどのプロンプト情報に基づいて、正確な画像分割マスクを生成することができます。このバージョンはONNX形式のSAM3トラッカーモデルで、Transformers.jsライブラリを通じてブラウザ環境で効率的に動作します。
peterant330
これはHugging FaceモデルセンターにアップロードされたTransformerモデルです。具体的な機能と特性については、さらに情報を補充する必要があります。
Maxlegrec
BT4モデルはLeelaChessZeroエンジンの背後にあるニューラルネットワークモデルで、チェス対局に特化しています。このモデルはTransformerアーキテクチャに基づいて設計されており、過去の手順に基づいて次の最適な手順を予測し、局面を評価し、手順の確率を生成することができます。
Olmo 3 32B Think SFTはTransformerアーキテクチャに基づく自己回帰型言語モデルで、長い思考連鎖推論に優れており、特に数学やコーディングなどの複雑な推論タスクを処理するのに適しています。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで教師付き微調整されています。
NyxKrage
Moondream 3 Preview HFは、HuggingFace Transformersアーキテクチャの仕様に基づいてMoondream 3 (Preview)モデルを再実装したもので、Hugging Faceのエコシステムと完全に互換性があります。これはマルチモーダルビジュアル言語モデルで、エキスパート混合(MoE)テキストバックボーンを採用し、約90億のパラメータと20億のアクティブパラメータを持ちます。
JetBrains-Research
これはHugging Face Hubに公開されている🤗 Transformersモデルです。具体的な情報はモデルページから取得する必要があります。このモデルはTransformerアーキテクチャに基づいており、様々な自然言語処理タスクに適しています。
Prior-Labs
TabPFN-2.5はTransformerアーキテクチャに基づく表基礎モデルで、コンテキスト学習技術を利用して、一度の順伝播で表予測問題を解決し、構造化表データに効率的な回帰と分類の解決策を提供します。
mitegvg
このモデルはVideoMAEアーキテクチャに基づく暴力検出モデルで、Kineticsデータセットで事前学習した後、暴力検出タスクに対して92エポックの微調整を行っています。モデルはVision Transformerアーキテクチャを採用し、ビデオコンテンツ分析に特化しており、ビデオ内の暴力行為を識別することができます。
strangervisionhf
これはDeepSeek - OCRに基づく画像テキスト認識モデルで、最新バージョンのtransformersライブラリでの互換性問題を特別に解決し、モデルがtransformers v4.57.1などの最新バージョンでスムーズに動作できるようにします。
ByteDance
Ouro-2.6Bは26億のパラメータを持つ循環言語モデルで、反復的な重み共有計算により卓越したパラメータ効率を実現し、わずか26億のパラメータで30 - 40億の標準Transformerモデルの性能レベルに達しています。
Ouro-1.4Bはバイトダンスによって開発された14億のパラメータを持つ循環言語モデルで、反復共有重み計算によって卓越したパラメータ効率を実現し、わずか14億のパラメータで30 - 40億の標準Transformerモデルの性能レベルに達しています。
ServiceNow-AI
Apriel-H1-15b-Thinkerは150億のパラメータを持つ混合推論モデルで、Transformerの注意力機構とMambaの状態空間層を組み合わせており、推論、数学、コーディングなどの分野で優れた性能を発揮し、高効率性と拡張性を備えています。
danggia
これはHugging Faceモデルセンターにアップロードされたtransformersモデルです。モデルカードはシステムによって自動生成され、詳細情報はさらに補充する必要があります。
これは修復された画像テキストをテキストに変換するモデルで、元のモデルが最新のTransformersバージョンで推論に失敗する問題を解決しました。このモデルは画像認識とテキスト生成タスクに特化しており、マルチモーダル入力処理をサポートしています。
impresso-project
Impresso NERモデルは、歴史文書の処理に特化した多言語の固有表現認識モデルです。スタック型Transformerアーキテクチャに基づいており、デジタル化された歴史テキスト中の細粒度および粗粒度のエンティティタイプ(人名、肩書き、場所など)を認識することができます。このモデルは、歴史文書中のOCRノイズ、スペルの変化、非標準的な言語の使い方に対して最適化されています。
emceeは、OpenAPI仕様を持つ任意のWebアプリケーションにModel Context Protocol (MCP)サーバーを提供するツールで、Claude Desktopなどのアプリケーションを外部ツールやデータサービスに接続できます。
Cursor AI内のClaudeに高度な推論能力を提供するMCPサーバーで、モンテカルロ木探索、ビームサーチ、Transformerハイブリッド推論などの複数の推論方法を含みます。
WindTools MCPサーバーはChromaDBとSentence Transformersを基にしたコードアシスタントサービスで、ドキュメントの埋め込みと検索機能を提供し、コードベースのインデックス作成と意味的な検索をサポートします。
Gradioベースの軽量アプリで、Hugging Face Transformersを使用して感情分析と皮肉検出を行い、MCPアーキテクチャと互換性があり、CPU上で実行できます。
Bunランタイムに基づくOAS変換ツールプロジェクト