騰訊AI工作臺ima上線“ima skills”功能,支持與OpenClaw等外部自動化工具協同,通過API接口操作內部組件。首期“筆記skill”已具備內容查詢、讀取與寫入能力,“知識庫skill”即將推出。
谷歌發佈新一代圖像生成模型Nano Banana2,基於Gemini3.1Flash Image架構,顯著提升理解能力和響應速度。新模型重點優化了中文字符亂碼、語義混亂和畫面僞影等常見問題,能生成清晰準確的中文文本,改善用戶體驗。
谷歌於2026年2月25日宣佈對其AI創意工作室Flow進行重大升級,核心是將圖像生成項目Whisk與ImageFX深度整合進平臺,推動多模態AI工具從分散實驗轉向統一工作流。新版Flow搭載最新的圖像模型Nano Banana,支持生成高精度圖像,並可直接作爲素材導入Veo視頻模型,實現從靜態圖像到動態內容的流暢創作。
谷歌AI創意工作室Flow全面升級,整合圖像生成工具Whisk和ImageFX,統一AI生產力工作流。用戶可從3月起遷移項目至新平臺,其底層採用最新圖像模型Nano Banana。
Nano Banana 2是快速AI圖像生成與編輯器,可秒級創建、編輯和增強圖像。
免費AI圖像編輯器,通過文本提示即時編輯圖像,無需註冊
Ima Studio的多模態AI平臺,用文本提示生成圖、視頻和音頻
4K AI圖像生成器,速度快、精度高,可創建海報、廣告等資產。
Alibaba
-
輸入tokens/百萬
輸出tokens/百萬
上下文長度
$2
Huawei
Minimax
bartowski
這是微軟Fara-7B模型的量化版本,使用llama.cpp的imatrix技術進行優化。該模型支持多種量化級別,從高精度的bf16到極低精度的IQ2_M,滿足不同硬件配置和性能需求。
這是ArliAI的GLM-4.5-Air-Derestricted模型的GGUF量化版本,使用llama.cpp和imatrix技術進行優化量化處理,提供多種量化級別選擇,適用於不同硬件配置和性能需求。
noctrex
這是一個基於Huihui-MiroThinker-v1.0-30B模型進行的MXFP4_MOE imatrix量化版本,專門針對文本生成任務優化,在保持模型性能的同時顯著減小了模型體積和推理成本。
這是TheDrummer的Snowpiercer-15B-v4模型的量化版本,使用llama.cpp和imatrix技術進行量化處理。該版本提供了從BF16到IQ2_S等多種量化級別,滿足不同硬件條件和性能需求的用戶。模型使用特定數據集進行校準優化,支持在線重打包功能以提升在ARM和AVX硬件上的性能。
這是對ai-sage的GigaChat3-10B-A1.8B模型進行的量化處理版本,採用llama.cpp的imatrix量化技術,可在不同硬件條件下更高效地運行。模型支持俄語和英語,主要用於文本生成任務。
drbaph
這是一個基於Qwen Image Edit 2509的LoRA模型,專門用於將輸入圖像轉換為帶有誇張特徵的素描漫畫藝術作品。模型能夠為人物和動物主體創作出幽默且富有藝術感的漫畫形象,突出面部特徵和特點。
這是kldzj的GPT-OSS-120B-Heretic-v2模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該模型通過量化技術顯著減少了存儲和計算資源需求,同時保持了較好的模型性能,便於在各種設備上部署運行。
這是對MiroThinker-v1.0-30B模型進行MXFP4_MOE imatrix量化的版本,基於mradermacher的imatrix實現。該量化模型保持了原模型的文本生成能力,同時通過量化技術提高了推理效率,適用於需要高效文本生成的各種應用場景。
這是對Qwen3-4B-Instruct-2507-heretic模型進行的量化處理版本,使用llama.cpp工具和imatrix數據集生成了多種量化類型的模型文件,可在多種環境下運行,為用戶提供了更多選擇。
這是基於p-e-w發佈的Llama-3.1-8B-Instruct-heretic模型的量化版本,使用llama.cpp b7049版本進行imatrix量化。提供了多種量化選項以適應不同硬件和性能需求,支持在LM Studio或llama.cpp中運行。
這是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該模型是一個200億參數的大語言模型,提供了多種量化選項,從高質量到低質量不等,文件大小從41.86GB到11.52GB,適用於不同硬件條件。
DavidAU
基於Qwen 3微調的12B參數大語言模型,具備256k超長上下文處理能力,專門針對長文本生成任務進行優化。該模型結合了VLTO 8B模型基礎、Brainstorm 20x調優和NEO Imatrix數據集量化技術,能夠生成高質量的長文本內容。
這是一個增強版的多模態視覺語言模型,基於Qwen3-VL-8B-Thinking模型,通過Brainstorm 20x技術擴展至12B參數,採用NEO Imatrix增強的GGUF量化。模型具備強大的圖像理解、文本生成和多模態推理能力,在視覺感知、文本質量和創意場景方面都有顯著提升。
anikifoss
本項目是對MiniMax-M2模型進行的高質量HQ4_K量化,專門針對文本生成任務優化,特別適用於對話場景。該量化版本未使用imatrix,保持了模型的性能表現。
這是基於TheDrummer/Rivermind-24B-v1模型的llama.cpp量化版本,使用imatrix技術進行優化量化,提供多種量化級別以適應不同硬件配置,可在多種環境下高效運行。
本項目是基於Qwen3-VL-32B-Instruct模型的llama.cpp GGUF量化版本,提供多種量化類型以滿足不同硬件和性能需求。使用特定數據集結合imatrix選項進行量化,保證量化質量,支持在線重新打包權重以提高ARM和AVX機器的性能。
這是Qwen3-VL-2B-Thinking模型的Llamacpp imatrix量化版本,提供了多種量化類型的文件,可在不同硬件環境下高效運行。該模型是一個2B參數的多模態視覺語言模型,具備思維鏈推理能力。
這是Qwen3-VL-2B-Instruct模型的量化版本,使用llama.cpp工具和imatrix方法生成了多種量化級別的模型文件,便於在不同硬件環境下高效運行。該模型是一個2B參數的多模態視覺語言模型,支持圖像和文本的交互。
JanusCoderV-7B是由InternLM開發的7B參數代碼生成模型,本項目提供了使用llama.cpp進行imatrix量化的多個版本,支持多種量化級別以滿足不同硬件需求。
這是對internlm的JanusCoder-8B模型進行量化處理的版本,採用llama.cpp的imatrix量化技術,在保證性能的前提下顯著減少模型的存儲和計算資源需求,使模型能夠在更多設備上高效運行。
一個基於FAL AI的Logo生成服務器,提供圖像生成、背景去除和自動縮放功能。
基於即夢AI的圖像生成服務,專為Cursor IDE設計,實現文本描述到圖像的生成與保存。
Parse DMARC是一個用於監控和分析DMARC報告的開源工具,通過IMAP自動獲取郵件報告,提供可視化儀表板,幫助用戶保護域名免受郵件欺騙和釣魚攻擊。
一個通過MCP服務器提供IMAP和SMTP郵件服務的工具
一個提供圖像獲取和處理功能的MCP服務器,支持從URL、本地路徑和numpy數組加載圖像,並返回base64編碼的字符串和MIME類型。
一個支持獲取圖片尺寸和壓縮圖片的MCP服務工具
一個基於Python的IMAP郵件管理服務,提供讀取和刪除特定文件夾郵件的功能。
一個基於MCP協議的圖像處理服務器,通過自然語言指令實現專業級圖片編輯功能
一個基於MCP協議的IMAP郵件服務器,為AI助手提供郵件檢查、處理和用戶偏好學習功能。
一個輕量級的MCP服務器,用於讀取IMAP郵件和創建草稿回覆,支持所有標準IMAP服務器和本地郵件橋接,提供郵件搜索、移動、標記和草稿管理功能。
MCP圖像提取轉換服務,為AI助手提供本地/網絡圖像處理和base64編碼功能
一個基於TypeScript的MCP服務器,使用OpenAI的DALL-E 3模型根據文本提示生成圖像。
該項目是一個集成Stable Diffusion圖像生成功能的MCP服務器,為AI代理提供圖像生成服務,支持通過MCP協議或直接API調用生成圖像,幷包含開發調試工具。
一個支持圖片下載和處理的MCP服務器,提供批量下載、格式轉換、尺寸調整和壓縮等功能
一個基於GPT-4o-mini模型的圖像分析MCP服務器,可處理URL或本地路徑的圖像內容分析
該項目實現了一個MCP服務器,通過OpenAI的gpt-image-1模型提供圖像生成和編輯功能,支持文本描述生成圖像、基於參考圖像編輯或修復圖像,並可將結果保存到本地。
一個基於Together AI和Replicate的圖像生成MCP服務
一個基於MCP協議的圖像下載與優化服務
一個基於Replicate Flux模型的圖像生成MCP服務器,為Claude Desktop提供圖像生成能力
Grok AI圖像生成MCP服務器項目,支持通過Docker容器化部署,提供多圖生成與多種返回格式支持。