ComfyUIクラウドプラットフォームがパブリックベータ開始。ローカル環境や高性能GPU不要で、ブラウザからフル機能のStable Diffusionを利用可能。AI画像生成のハードルを大幅に下げ、クリエイターが手軽にプロ級のAIビジュアル制作を実現。....
【AIニュース速報】1. Stability AIがSPAR3Dモデルを発表し、単一画像の3D再構築を0.7秒で完了。回帰と生成的モデリングの利点を統合;2. GitHubの人気プロジェクトCrewAIが3万4千スターを達成し、AIエージェント協調開発に特化;3. マスク氏が子供向け版AIBaby Grokを発表し、セキュリティ性が議論に;4. ComfyUI-CopilotがAIワークフロー作成を簡略化し、6万以上のモデルをサポート;5. 我国の346種類の生成型AIが登録を完了。
AlibabaのComfyUI-Copilotは、自然言語でAIアート制作を簡素化するオープンソースプラグインです。7,000ノード、62,000モデルの知識ベースを備え、自動ワークフロー生成をサポート。2025年2月の公開以来19,000ユーザーを獲得し、ワークフロー採用率85.9%を達成しています。....
最近、Vidu AIとComfyUIが新たな連携を開始し、クリエイターたちに画像からビデオへと創作する新しい体験を提供しています。Vidu API ノードがComfyUIに間もなく正式にリリースされ、簡単に図からビデオを作成できるようになり、クリエイティブプロセスが再度アップグレードされます。クリエイターにとって、新しい機能をすぐに習得することは非常に重要です。今回の連携では明確な操作ガイドが提供されています:クリエイターはまずComfyUIまたはComfyUIデスクトップ版を更新し、次にログインして対応するポイントを購入し、その後「ワークフロー」に進み、「ブラウズモジュール」を確認します。
AIアルゴリズムのデバッグとデプロイを自然言語で簡素化するインテリジェントアシスタントです。
追加のトレーニングを必要としない高品質な画像修復プラグインで、すべての安定拡散モデルに適用できます。
ComfyUI-WanVideoWrapperは、WanVideoのためにComfyUIノードを提供するツールです。
ComfyUI向けのHunyuan3D-2モデルラッパーツール。3Dモデル生成とテクスチャ処理に使用します。
jayn7
このプロジェクトは、LightX2Vチームによって開発された万2.2蒸留モデルの量子化GGUFバージョンを提供しています。これは、画像から動画への変換や動画生成タスクに特化しています。このバージョンは最適化されており、ComfyUI - GGUFなどのツールと連携して、効率的な推論性能を提供します。
LL1999
これはOstrisのAIツールキットを基にトレーニングされたLoRAモデルで、テキストから動画への変換タスクに特化しています。モデルはSafetensors形式を採用し、ComfyUI、AUTOMATIC1111などの複数のプラットフォームで使用できます。
Hikarias
f3rnanda_wan22-loraは、OstrisによるAIツールキットを基に訓練されたLoRAモデルで、画像から動画への生成タスクに特化しています。このモデルはWan2.2 - I2V - A14Bをベースモデルとして使用し、ComfyUIやAUTOMATIC1111などの主流のAIツールでの使用をサポートしています。
QuantStack
Qwen-Image-Edit-2509 GGUFは、Qwen/Qwen-Image-Edit-2509モデルを変換した量子化バージョンで、画像から画像への処理タスクに特化しています。このモデルは元のモデルの核心能力を保持し、ComfyUI環境での画像編集と処理をサポートします。
FP8バージョンから量子化されたテキストから画像生成モデルで、GGUF形式のファイルを提供し、ComfyUIフレームワークの画像生成タスクに適しています。
Qwen-ImageはQwenアーキテクチャに基づくマルチモーダルビジョン言語モデルで、テキストから画像の生成タスクをサポートし、ComfyUIで使用するためにGGUF形式に変換されており、元のモデルのApache-2.0ライセンスと使用制限を保持しています。
city96
これはQwen/Qwen-ImageモデルのGGUF形式の変換バージョンで、英語と中国語のテキストから画像への生成タスクをサポートし、ComfyUIフレームワークの量子化推論デプロイに適しています。
calcuis
KreaのGGUF量子化バージョンは、FLUX.1アーキテクチャに基づくテキストから画像への生成モデルです。GGUF量子化技術により、モデルサイズと推論効率が最適化され、diffusersライブラリ、ComfyUI、gguf-connectorなどの複数の方法で実行できます。
lym00
Wan14BT2VFusionXはテキストから動画を生成するモデルで、ComfyUI - GGUFのカスタムノードを通じて動画生成をサポートします。
これはテキストから動画への量子化モデルで、基礎モデルをGGUF形式に変換し、ComfyUIで使用でき、テキストから動画生成により多くの選択肢を提供します。
これはテキストから動画を生成するモデルで、GGUFに変換された後、ComfyUI - GGUFと互換性があります。
これはbytedance-research/PhantomモデルのGGUF直接変換バージョンで、ComfyUIでComfyUI-GGUFカスタムノードと組み合わせて使用できます。
MidnightRunner
このプロジェクトは、UltralyticsモデルをComfyUIに統合し、ユーザーが物体検出などの操作を行いやすくします。
guokee
これはFLUX.1-devテキスト画像生成モデル用にトレーニングされたLoRAアダプターで、diffusersまたはComfyUIを介して呼び出し、特定のスタイルの画像を生成するために使用できます。
codermert
これはFLUX.1-devテキストから画像生成モデル向けにトレーニングされたLoRAアダプターで、diffusersまたはComfyUIと一緒に使用できます。
これはFLUX.1-devテキスト生成画像モデル専用に設計されたLoRAアダプターで、diffusersまたはComfyUIと連携可能
これはFLUX.1-devテキストから画像モデル向けにトレーニングされたLoRAモデルで、diffusersまたはComfyUIと連携して使用できます。
MaxedOut
ComfyUIユーザーのための必須モデルライブラリで、様々な画像生成・処理モデルをカテゴリ別に整理し、すぐに利用可能。
ajiprakoso
これはFLUX.1-devテキストから画像モデル向けに特別に設計されたLoRAアダプタで、diffusersまたはComfyUIと併用可能です。
これはWan-AI/Wan2.1-T2V-1.3Bを基にしたgguf量子化バージョンで、テキストから動画生成タスク向けに設計されており、comfyui-ggufとggufノードと互換性があります。
Pixelle MCPはMCPプロトコルに基づく全モーダルAIGCソリューションで、ComfyUIワークフローをゼロコードでMCPツールに変換し、LLMとComfyUIのシームレスな統合を実現します。
ComfyUI MCPサーバーは、ComfyUIとMCPを統合するサービス実装で、動作中のComfyUIサーバーと併用する必要があります。テキストから画像の生成、画像のダウンロード、カスタムワークフローの実行などのさまざまな組み込みツールを提供し、UVまたはDocker方式での実行をサポートします。
このプロジェクトは、ComfyUIに接続するMCPサーバーの実装で、画像生成、画像説明生成、タグ解析などの機能を提供し、APIを通じてComfyUIとの画像処理をサポートします。
Pythonベースの軽量級MCPサーバーで、WebSocketを介してローカルのComfyUIとやり取りし、AIエージェントによる画像のプログラム生成を実現します。
ローカルのComfyUIに接続するMCPサーバーで、ノート保存と要約生成機能を提供します
ComfyUIのMCPサービスで、画像生成とプロンプト最適化機能を提供し、自動サイズ調整とランダムシード生成をサポートします。
このプロジェクトは、Open WebUI用のComfyUIワークフローパイプラインラッパーで、comfy - mcp - serverを通じて画像生成機能を実現し、ComfyUIとOpen WebUI Pipelinesと併用する必要があります。
ComfyUI SSE MCPサーバーをデプロイするためのHelmチャートプロジェクトで、Kubernetes環境での構成と管理をサポートします。
GBox MCPサーバーはFastMCPプロトコルに基づくサーバー実装で、GBoxゲームエンジンとのリアルタイム通信をサポートし、ComfyUIを統合してAIによるゲーム開発支援を実現します。
ComfyUIワークフローに基づくMCPサーバーで、プロンプトに基づいて画像を生成し、画像のURLを返します
ローカルComfyUIに接続するMCPサーバーで、ノート管理と要約生成機能を提供します。
ComfyUI_StoryDiffusionはComfyUIベースのプラグインで、StoryDiffusionとMS - Diffusionモデルをサポートし、一貫した長いシーケンスの画像とビデオを生成するために使用されます。このプロジェクトは、二人のキャラクターの同時表示、ControlNet制御、Lora加速、テキストから画像への変換、画像から画像への変換など、さまざまな機能をサポートしています。