馬斯克旗下xAI公司發佈視頻生成工具Grok Imagine 1.0,支持生成10秒720p高清視頻,音頻質量大幅優化,標誌着其在多媒體AI生成領域邁出關鍵一步。
馬斯克旗下xAI公司發佈Grok Imagine 1.0,實現AI視頻生成技術重大突破。該版本支持生成10秒720p高清視頻,音頻質量顯著提升,大幅縮短高質量視頻創作時間,標誌着AI視頻生成領域的重要進展。
xAI旗下Grok Imagine新增10秒視頻生成功能,視頻質量顯著提升,畫面穩定、細節豐富,音頻清晰同步。目前生成過程仍較隨機,缺乏計時器選項,輸出長度和一致性有待優化,但相關功能預計將很快完善。
騰訊AI工作臺ima.copilot上線“生成PPT”功能,用戶可調用個人知識庫素材一鍵生成邏輯清晰、排版美觀的幻燈片,標誌着其多模態輸出能力取得重要突破。
強大的AI批量圖像生成器,支持單提示或CSV上傳,快速生成大量圖像。
Nana Banana AI:先進圖像生成與編輯器,用文本指令輕鬆編輯圖像。
Whisk AI可融合主題、場景和風格圖像,快速生成4K高質量AI圖像。
Sea Imagine AI 一站式平臺,可將文本/圖像轉為視頻,適合專業與業餘人士。
Alibaba
-
輸入tokens/百萬
輸出tokens/百萬
上下文長度
$2
Huawei
Minimax
bartowski
這是微軟Fara-7B模型的量化版本,使用llama.cpp的imatrix技術進行優化。該模型支持多種量化級別,從高精度的bf16到極低精度的IQ2_M,滿足不同硬件配置和性能需求。
這是ArliAI的GLM-4.5-Air-Derestricted模型的GGUF量化版本,使用llama.cpp和imatrix技術進行優化量化處理,提供多種量化級別選擇,適用於不同硬件配置和性能需求。
noctrex
這是一個基於Huihui-MiroThinker-v1.0-30B模型進行的MXFP4_MOE imatrix量化版本,專門針對文本生成任務優化,在保持模型性能的同時顯著減小了模型體積和推理成本。
這是TheDrummer的Snowpiercer-15B-v4模型的量化版本,使用llama.cpp和imatrix技術進行量化處理。該版本提供了從BF16到IQ2_S等多種量化級別,滿足不同硬件條件和性能需求的用戶。模型使用特定數據集進行校準優化,支持在線重打包功能以提升在ARM和AVX硬件上的性能。
這是對ai-sage的GigaChat3-10B-A1.8B模型進行的量化處理版本,採用llama.cpp的imatrix量化技術,可在不同硬件條件下更高效地運行。模型支持俄語和英語,主要用於文本生成任務。
drbaph
這是一個基於Qwen Image Edit 2509的LoRA模型,專門用於將輸入圖像轉換為帶有誇張特徵的素描漫畫藝術作品。模型能夠為人物和動物主體創作出幽默且富有藝術感的漫畫形象,突出面部特徵和特點。
這是kldzj的GPT-OSS-120B-Heretic-v2模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該模型通過量化技術顯著減少了存儲和計算資源需求,同時保持了較好的模型性能,便於在各種設備上部署運行。
這是對MiroThinker-v1.0-30B模型進行MXFP4_MOE imatrix量化的版本,基於mradermacher的imatrix實現。該量化模型保持了原模型的文本生成能力,同時通過量化技術提高了推理效率,適用於需要高效文本生成的各種應用場景。
這是對Qwen3-4B-Instruct-2507-heretic模型進行的量化處理版本,使用llama.cpp工具和imatrix數據集生成了多種量化類型的模型文件,可在多種環境下運行,為用戶提供了更多選擇。
這是基於p-e-w發佈的Llama-3.1-8B-Instruct-heretic模型的量化版本,使用llama.cpp b7049版本進行imatrix量化。提供了多種量化選項以適應不同硬件和性能需求,支持在LM Studio或llama.cpp中運行。
這是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該模型是一個200億參數的大語言模型,提供了多種量化選項,從高質量到低質量不等,文件大小從41.86GB到11.52GB,適用於不同硬件條件。
DavidAU
基於Qwen 3微調的12B參數大語言模型,具備256k超長上下文處理能力,專門針對長文本生成任務進行優化。該模型結合了VLTO 8B模型基礎、Brainstorm 20x調優和NEO Imatrix數據集量化技術,能夠生成高質量的長文本內容。
這是一個增強版的多模態視覺語言模型,基於Qwen3-VL-8B-Thinking模型,通過Brainstorm 20x技術擴展至12B參數,採用NEO Imatrix增強的GGUF量化。模型具備強大的圖像理解、文本生成和多模態推理能力,在視覺感知、文本質量和創意場景方面都有顯著提升。
anikifoss
本項目是對MiniMax-M2模型進行的高質量HQ4_K量化,專門針對文本生成任務優化,特別適用於對話場景。該量化版本未使用imatrix,保持了模型的性能表現。
這是基於TheDrummer/Rivermind-24B-v1模型的llama.cpp量化版本,使用imatrix技術進行優化量化,提供多種量化級別以適應不同硬件配置,可在多種環境下高效運行。
本項目是基於Qwen3-VL-32B-Instruct模型的llama.cpp GGUF量化版本,提供多種量化類型以滿足不同硬件和性能需求。使用特定數據集結合imatrix選項進行量化,保證量化質量,支持在線重新打包權重以提高ARM和AVX機器的性能。
這是Qwen3-VL-2B-Thinking模型的Llamacpp imatrix量化版本,提供了多種量化類型的文件,可在不同硬件環境下高效運行。該模型是一個2B參數的多模態視覺語言模型,具備思維鏈推理能力。
這是Qwen3-VL-2B-Instruct模型的量化版本,使用llama.cpp工具和imatrix方法生成了多種量化級別的模型文件,便於在不同硬件環境下高效運行。該模型是一個2B參數的多模態視覺語言模型,支持圖像和文本的交互。
JanusCoderV-7B是由InternLM開發的7B參數代碼生成模型,本項目提供了使用llama.cpp進行imatrix量化的多個版本,支持多種量化級別以滿足不同硬件需求。
這是對internlm的JanusCoder-8B模型進行量化處理的版本,採用llama.cpp的imatrix量化技術,在保證性能的前提下顯著減少模型的存儲和計算資源需求,使模型能夠在更多設備上高效運行。
一個基於FAL AI的Logo生成服務器,提供圖像生成、背景去除和自動縮放功能。
基於即夢AI的圖像生成服務,專為Cursor IDE設計,實現文本描述到圖像的生成與保存。
一個通過MCP服務器提供IMAP和SMTP郵件服務的工具
一個提供圖像獲取和處理功能的MCP服務器,支持從URL、本地路徑和numpy數組加載圖像,並返回base64編碼的字符串和MIME類型。
一個基於Python的IMAP郵件管理服務,提供讀取和刪除特定文件夾郵件的功能。
一個支持獲取圖片尺寸和壓縮圖片的MCP服務工具
一個基於MCP協議的IMAP郵件服務器,為AI助手提供郵件檢查、處理和用戶偏好學習功能。
一個基於MCP協議的圖像處理服務器,通過自然語言指令實現專業級圖片編輯功能
MCP圖像提取轉換服務,為AI助手提供本地/網絡圖像處理和base64編碼功能
該項目是一個集成Stable Diffusion圖像生成功能的MCP服務器,為AI代理提供圖像生成服務,支持通過MCP協議或直接API調用生成圖像,幷包含開發調試工具。
一個基於GPT-4o-mini模型的圖像分析MCP服務器,可處理URL或本地路徑的圖像內容分析
一個基於TypeScript的MCP服務器,使用OpenAI的DALL-E 3模型根據文本提示生成圖像。
一個支持圖片下載和處理的MCP服務器,提供批量下載、格式轉換、尺寸調整和壓縮等功能
Image Gen MCP Server是一個通用AI圖像生成服務,通過Model Context Protocol(MCP)標準協議為各類LLM聊天機器人提供跨平臺、多模型的圖像生成能力,支持OpenAI和Google的多種圖像模型,實現文本對話到可視化內容的無縫轉換。
該項目實現了一個MCP服務器,通過OpenAI的gpt-image-1模型提供圖像生成和編輯功能,支持文本描述生成圖像、基於參考圖像編輯或修復圖像,並可將結果保存到本地。
一個基於模型上下文協議的IMAP/SMTP郵件服務器,支持通過自然語言指令讓AI助手(如Claude、Cursor)進行郵件搜索、閱讀、發送和管理操作。
Grok AI圖像生成MCP服務器項目,支持通過Docker容器化部署,提供多圖生成與多種返回格式支持。
一個基於Together AI和Replicate的圖像生成MCP服務
一個基於MCP協議的圖像下載與優化服務
一個基於Sharp庫的圖片處理MCP服務,提供調整尺寸、格式轉換、裁剪、旋轉和獲取圖片信息等功能