ByteDanceのAIプログラミングツール「TRAE」が中国版プラットフォームでSOLOモードを無料公開。コード生成からソフトウェア納品までの自動化を実現し、月間ユーザー数100万人超、生成コード行数は6億行を突破。....
ByteDanceがInfinityStarフレームワークを発表。動画生成効率が大幅向上し、5秒の720p動画生成が58秒に短縮。革新的な時空間分離設計により、画像生成、テキストからの動画生成、動画続き作成など多様な視覚タスクを統一サポート。....
ByteDanceと香港3大学がDreamOmni2をオープンソース化。AI画像編集・生成能力を大幅向上。テキストと画像のマルチモーダル指令を同時処理し、抽象タスクの処理効果を改善。....
ByteDanceと大学が共同でSa2VAモデルを開発。LLaVAの視覚言語理解とSAM-2の精密分割を統合し、動画内容の解析と対象の追跡・分割を実現。....
ByteDance
Ouro-2.6Bは26億のパラメータを持つ循環言語モデルで、反復的な重み共有計算により卓越したパラメータ効率を実現し、わずか26億のパラメータで30 - 40億の標準Transformerモデルの性能レベルに達しています。
Ouro-1.4Bはバイトダンスによって開発された14億のパラメータを持つ循環言語モデルで、反復共有重み計算によって卓越したパラメータ効率を実現し、わずか14億のパラメータで30 - 40億の標準Transformerモデルの性能レベルに達しています。
ByteDance-Seed
人工海馬ネットワーク(AHN)は、無損記憶を固定サイズの圧縮表現に変換することで、無損記憶の正確性と圧縮記憶の高効率性を結合した革新的な長文脈モデリング手法です。このモデルは、長シーケンスを効果的に処理でき、計算コストが固定されており、様々なRNNに似たアーキテクチャに適用できます。
AHNは、高効率な長文脈モデリングに用いられる革新的なニューラルネットワークアーキテクチャで、損失のないメモリを固定サイズの圧縮表現に変換することで、TransformerとRNNの利点を結合し、長シーケンス処理において高効率な計算と正確な予測を実現します。
catalystsec
これはByteDanceのSeed-OSS-36B-InstructモデルをDWQ量子化で4ビットにした軽量化バージョンで、mlx-lm 0.27.1を使用してBF16教師モデルから蒸留され、中英バイリンガルのテキスト生成タスクをサポートしています。
giladgd
これはByteDance-Seed/Seed-OSS-36B-Instructモデルの静的量子化バージョンで、さまざまな量子化レベルのGGUF形式ファイルを提供し、開発者が異なるハードウェア構成でより効率的にこのモデルを使用できるように支援します。
lmstudio-community
Seed - OSS - 36B - InstructはByteDance - Seedによって開発された大規模言語モデルで、パラメータ数は360億に達し、Apache 2.0オープンソースライセンスを採用しています。このモデルはtransformersライブラリに基づいて構築され、vllmとmlx技術の最適化をサポートし、特にApple Siliconチップに対して8ビット量子化処理を行い、効率的なテキスト生成能力を提供します。
Seed-OSS-36B-Instructは、ByteDanceのSeedチームによって開発された360億パラメータの命令調整大規模言語モデルで、Transformerアーキテクチャに基づいて構築され、MLX量子化処理を経て、Apple Siliconチップに特化して最適化され、LM Studioで効率的に動作します。
DevQuasar
これはByteDance-Seed/cudaLLM-8Bの量子化バージョンで、モデル圧縮技術を通じて大規模言語モデルをより簡単にデプロイし使用できるようにし、「知識を誰もが利用できるようにする」という理念を実現します。
bartowski
これはByteDance-SeedのSeed-OSS-36B-Instructモデルの量子化バージョンで、llama.cppツールを通じて様々な精度の量子化処理を行い、BF16からIQ2_XXSまで20種類以上の量子化オプションを提供し、さまざまなハードウェアでのモデルの実行効率と性能を向上させることを目的としています。
RDson
Seed OSS 36B Instructは、ByteDanceによって開発された大規模言語モデルで、360億のパラメータを持ち、命令追従タスクに特化して最適化されています。llama.cppフレームワークに基づいて構築され、効率的なテキスト生成能力をサポートします。
yarikdevcom
Seed-OSS-36B-InstructはByteDanceによって開発された360億パラメータの大規模言語モデルで、Apache-2.0ライセンスに基づいてオープンソース化されています。このモデルは、指令追従タスクに特化して最適化されており、テキスト生成と対話機能をサポートし、強力な理解と生成能力を持っています。
dnakov
Seed-OSS-36B-InstructはByteDanceによって開発された大規模言語モデルで、パラメータ数は360億に達し、テキスト生成タスクに特化しています。このモデルはMLXフレームワークに基づいて実装され、英語と中国語の両方をサポートし、強力な指令追従とテキスト生成能力を備えています。
Seed-OSSは、バイトダンスのSeedチームによって開発されたオープンソースの大規模言語モデルシリーズで、強力な長文脈処理、推論、エージェントインタラクション能力および汎用性能を備えています。このモデルは、わずか12Tトークンで訓練され、複数の公開ベンチマークテストで優れた成績を収めています。
prithivMLmods
cudaLLM-8BはByteDance Seedによって開発された専門の言語モデルで、高性能かつ構文が正しいCUDAカーネルコードを生成するために特別に設計されています。Qwen3-8B基礎モデルをベースに構築され、監督微調整と強化学習の2段階のトレーニングを通じて、開発者が効率的なGPU並列プログラミングコードを記述するのを支援することができます。
Seed-X-RM-7BはSeed-Xシリーズの報酬モデルで、翻訳品質の評価に特化しています。このモデルは70億パラメータのMistralアーキテクチャに基づいており、多言語翻訳に報酬スコアを割り当てることができ、25種類の言語間の翻訳品質評価をサポートしています。
Seed-X-Instruct-7Bは強力なオープンソースの多言語翻訳言語モデルで、70億パラメータの範囲内で翻訳能力の限界を突破し、卓越した翻訳性能、軽量なアーキテクチャ、および幅広い分野のカバーを備え、翻訳研究とアプリケーションに強力なサポートを提供します。
XVerseは多主体画像合成に用いる革新的な方法で、全体画像の潜在的な特徴を損なうことなく、単一主体を正確かつ独立に制御することができます。
yujiepan
ByteDance-Seed/UI-TARS-1.5-7Bモデルに基づく量子化バージョンで、GPTQ技術を用いて4ビットの重み量子化と16ビットの活性化量子化を行い、画像テキストからテキストへの変換機能を実現し、効率的な推論性能を持ちます。