Harnessは2億4千万ドルのシリーズE資金調達に成功し、ゴールドマン・サックスが主幹を務めた。企業価値は55億ドルに達した。この資金は、インテリジェントエージェントとコンテキスト感知技術を統合したAIプラットフォームの発展に重点的に使われる予定で、ソフトウェア配信プロセスを最適化し、後段のコーディングのボトルネックを解消することを目的としている。
京东はエッジAIチップの開発を専門とする人材を募集しており、ロボットやスマート家電などのハードウェア製品にAIチップを提供し、製品のスマート化を推進することを目指しています。採用ポジションの報酬は優れているため、最高年収は40〜100K*20と予定されています。
京东はエッジAIチップ事業を加速して展開しており、特に「存算一体」AIチップの人材を重点的に採用しています。今後これらの製品はロボットやスマート家電などのハードウェアに応用される見込みです。採用報酬は40~100K*20賞与と高額で、同分野における戦略的な投資を示しています。
知譜チームは4つの動画生成コア技術をオープンソース化しました。GLM-4.6Vの視覚理解、AutoGLMデバイス操作、GLM-ASR音声認識およびGLM-TTS音声合成モデルを含み、マルチモーダル分野における最新の進展を示し、動画生成技術の発展に基盤を築きました。
テキストや写真から高品質のAI画像やビデオを生成し、4K出力と複数のモデルをサポートします。
バイトダンスのSeedream 4.5 AIは4K映画レベルの視覚効果を提供でき、電子商取引や広告デザインに適しています。
Seedream 4.5は4Kの視覚効果を作成でき、多言語テキストをサポートし、専門的な創作に適しています。
Gen-4.5は先進的なAIビデオ生成プラットフォームで、テキストと画像を専門的なビデオに変換することができます。
Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
Xai
$1.4
$3.5
2k
Anthropic
$7
$35
200
$21
$105
Bytedance
-
$0.8
$2
128
Alibaba
$0.4
$0.35
400
64
$525
Huawei
32
Chatglm
$8
$16
$1.8
$5.4
16
Tencent
John1604
Qwen3 VL 4B Thinkingは、画像からテキスト、テキストからテキストへの変換をサポートするマルチモーダルモデルで、4Bのパラメータ規模を持ち、様々な画像とテキストの相互作用のニーズを満たすことができます。
lightx2v
このリポジトリには、HunyuanVideo-1.5用に最適化された4ステップ蒸留モデルが含まれています。このモデルは、CFG(分類器なしガイダンス)を使用せずに、超高速の4ステップ推論を実現し、生成時間を大幅に削減すると同時に、高品質のビデオ出力を維持します。
pramjana
Qwen3-VL-4B-Instructはアリババが開発した40億パラメータの視覚言語モデルで、Qwen3アーキテクチャに基づいて開発され、マルチモーダル理解と対話タスクをサポートします。このモデルは強力な画像理解とテキスト生成能力を備え、複雑な視覚言語対話シーンを処理することができます。
jayn7
このプロジェクトは、テンセントの混元ビデオ1.5のテキストから動画へのモデルの量子化GGUFバージョンを提供し、480P動画生成タスクをサポートします。蒸留モデルと完全モデルの2つのバージョンが含まれており、ComfyUI - GGUFなどのツールと連携して使用できます。
騰訊の混元ビデオ1.5モデルの量子化GGUFバージョンで、画像を動画に変換するタスクや動画生成タスクに特化しています。480P解像度の蒸留モデルと標準モデルを提供し、Q4_K_S、Q8_0、FP16などの複数の量子化精度をサポートします。
DejanX13
これはGoogleのViT - baseモデルを微調整した住宅状況分類器で、住宅画像を良好、未知、老朽化、中等の4つのカテゴリに分類できます。モデルは935枚の住宅画像データセットで学習され、検証セットの正解率は81.2%に達しまし。
Owen777
UltraFluxは、Fluxベースの拡散トランスフォーマーで、ネイティブ4Kのテキストから画像への生成に特化しています。データ、アーキテクチャ、損失関数の協調設計により、様々なアスペクト比で一貫した画像品質を維持することができます。
MaziyarPanahi
このプロジェクトでは、Qwen3-4B-Thinking-2507モデルのGGUF形式のファイルを提供しています。これは、思考過程推論能力を持つ4Bパラメータの大規模言語モデルで、複数の量子化バージョンをサポートし、さまざまなハードウェアでのデプロイと実行が容易です。
prithivMLmods
VibeThinker-1.5Bは微博AIが開発した15億パラメータの密集型言語モデルで、Qwen2.5-Math-1.5Bをベースに微調整され、数学やアルゴリズムコーディングの問題に特化して設計されています。「スペクトルから信号への原理」のフレームワークを用いてトレーニングされ、複数の数学コンテストのテストでより大規模なモデルを上回り、トレーニングコストは約7800ドルで、最大約40kトークンの出力をサポートします。
Intel
DeepMathは40億パラメータの数学推理モデルで、Qwen3 - 4B Thinkingをベースに構築され、微調整された大規模言語モデルとサンドボックス化されたPython実行器を組み合わせています。これは計算ステップに対して簡潔なPythonコード断片を生成し、エラーを大幅に減らし、出力長を短縮します。
Nanbeige
楠米色4-3B-思考-2511は楠米色シリーズの最新の強化バージョンで、高度な蒸留技術と強化学習による最適化を通じて、コンパクトな3Bパラメータ規模で強力な推論能力を実現しています。このモデルはArena-Hard-V2やBFCL-V4などのベンチマークテストで、パラメータが32B未満のモデルの中で最先端(SOTA)の成果を達成しています。
mlx-community
VibeThinker-1.5Bの4ビット量子化バージョンで、MLXフレームワークに基づいてAppleチップ向けに最適化されており、15億のパラメータを持つ密集型言語モデルで、数学的推論とアルゴリズムコーディングの問題に特化しています。
bartowski
これはREAP方法に基づいて、MiniMax-M2の40%の専門家を均等に剪定して得られた139Bパラメータの大規模言語モデルです。GLMアーキテクチャと専門家混合(MoE)技術を採用し、llama.cppを通じて様々な量化処理を行い、テキスト生成タスクに適しています。
TeichAI
このモデルはQwen3 - 4Bアーキテクチャに基づく知識蒸留モデルで、Gemini 2.5 Flashによって生成された約5440万個のトークンを使用してトレーニングされ、Gemini - 2.5 Flashの振る舞い、推論プロセス、知識を単一のデータセットに統合することを目的としています。
これはp-e-w/gpt-oss-20b-hereticモデルの量子化バージョンで、llama.cppのimatrix技術を使用して量子化処理が行われています。このモデルは200億パラメータの大規模言語モデルで、高品質から低品質まで様々な量子化オプションを提供し、ファイルサイズは41.86GBから11.52GBまでで、さまざまなハードウェア条件に適しています。
hum-ma
Wan2.2-TI2V-5B-Turbo-GGUFは、quanhaol/Wan2.2-TI2V-5B-Turboベースモデルから変換された画像を動画に変換するモデルで、最適化されて4GB GPUで動作可能で、優れた汎用性と高効率な推論能力を持っています。
これはClaude Sonnet 4.5の推論データセットを基に訓練された300億パラメータの大規模言語モデルで、高難度の推論タスクに特化して最適化されており、コーディングと科学の分野で優れた性能を発揮します。
これはQwen3 30B A3Bモデルをベースに、Claude Sonnet 4.5の高い推論難易度のデータセットで訓練された蒸留モデルです。このモデルは複雑な推論タスクに特化して最適化されており、コーディングと科学の分野で優れた性能を発揮し、強力な論理推論能力を持っています。
ilyasaqit
これはHelsinki-NLP/opus-mt-en-berモデルの微調整バージョンで、英語からアトラスタマジグ語への翻訳に特化しています。モデルはMarianMTアーキテクチャに基づいており、48.6万対の合成文ペアを使用して訓練され、タマジグ語、タシュリート語、中央アトラスタマジグ語の翻訳タスクをサポートします。
magiccodingman
これはQwen3 4B Instructモデルに基づく混合量子化バージョンで、MXFP4と混合重み技術を採用し、ほぼ無損失な精度を維持しながら、より小さなファイルサイズとより高い推論速度を実現しています。
n8nは、技術チーム向けのワークフロー自動化プラットフォームで、コードの柔軟性とノーコードの速度を兼ね備え、400以上の統合、ネイティブAI機能、公正なコードライセンスを提供し、自ホストまたはクラウドデプロイをサポートします。
Cursor10xはAI駆動の開発メモリシステムで、Cursorエディタに永続的なコンテキストメモリ機能を提供し、短期/長期/情景/意味の4種類のメモリタイプを統合して、スマートなコード支援を実現します。
4o-image APIを統合したMCPサーバーで、テキストによる画像生成と編集をサポートします。
ConsultingAgents MCP Serverは、複数のモデルを持つコンサルティングエージェントサーバーで、MCPプロトコルを通じてClaude Codeに4種類のAI専門家(Darren、Sonny、Sergey、Gemma)のコンサルティングサービスを提供し、コード分析、ドキュメント検索、リポジトリレベルの開発計画をサポートします。
MCP-ChatBotは、モジュール式能力プロトコル(MCP)に基づくチャットボットアプリケーションで、コンテナ化アーキテクチャを通じて天気サービスとGPT - 4oモデルを統合し、自然言語対話機能を提供します。
TurboVaultは、プロダクションレベルのMCPサーバーで、ObsidianナレッジベースをAI駆動のインテリジェントな知識システムに変換し、ノートの読み書き、検索、分析、管理のための44個の専用ツールを提供し、100ミリ秒未満の性能を発揮します。
Rustベースの《ペルソナ4 ゴールデン》メモリ変更ツールで、ゲーム内のお金の数値をリアルタイムで変更できます。
Gemini CLIとGoogle Apps Scriptで構築されたMCPサーバーを組み合わせることで、低コードプラットフォームを通じてGoogle Workspaceの自動化機能が拡張され、Gmail、Drive、Calendarなどのサービスをカバーする41種類のツールが提供され、複雑なタスクの多段階実行が可能になります。
4o-image APIを統合したMCPサーバーの実装で、標準化されたプロトコルを通じてLLMとAIシステムが画像を生成および編集できるようにします。テキストからの画像生成、画像編集などの機能が含まれます。
3xpl APIのMCPサーバーは、JSON APIを通じてLLMが48のブロックチェーンデータとやり取りできるようにし、さまざまなブロックチェーンクエリと集約ツールを提供します。
BinAssistMCPは、Binary Ninjaと大規模言語モデル(LLM)を接続するMCPサービスで、40種以上の逆エンジニアリングツールを提供し、双方向伝送プロトコルとインテリジェントコンテキスト管理をサポートします。
MCPクライアントプラグインを含むGodot 4のサンプルプロジェクトで、ゲーム実行中にClaudeなどのAIツールを通じてシーンノードの属性をリアルタイムで確認、変更し、メソッドを呼び出し、AI支援によるデバッグと開発を実現します。
TailwindコンポーネントをNativeWind 4に変換するMCPサービスツール
このプロジェクトは、Model Context Protocol (MCP) に基づく標準入出力サーバーで、プロンプトをOpenAIのChatGPT (GPT - 4o) に転送し、高度な要約、分析、推論機能をサポートし、LangGraphフレームワークのアシスタント統合に適しています。
4K YouTubeビデオのMCP複製FLUXサービスを設定する
これは、Google Analytics 4にMCPサービスを提供するサーバープロジェクトで、データ取得、リソースクエリ、データ分析などの機能が含まれており、Googleサービスアカウントで認証して使用する必要があります。
HTTP - 4 - MCPはミドルウェアサーバーで、HTTPインターフェースをMCPプロトコルインターフェースに変換でき、可視化設定、リアルタイムデータフロー、ホット更新などの機能をサポートします。
GLM-4.6 MCPサーバーは、企業レベルのアーキテクチャコンサルティングプロトコルブリッジサービスです。モデルコンテキストプロトコルを通じてClaude 4.5 SonnetとGLM-4.6を接続し、システム設計、拡張性パターン、技術的な意思決定のサポートを提供します。コードアーキテクチャ分析、システムアーキテクチャ設計、意思決定レビューなどの機能をサポートしています。
4K YouTubeビデオの設定チュートリアル
GLM - 4.5Vの視覚能力を統合したMCPサーバーで、ローカル画像とURL分析をサポートし、Claude Codeを通じて画像分析機能を提供します。