騰訊自研大模型混元2.0(Tencent HY2.0)正式發佈,與此同時,DeepSeek V3.2也逐步接入騰訊生態。目前,這兩大模型已在元寶、ima等騰訊AI原生應用中率先上線,騰訊雲也同步開放了相關模型的API及平臺服務。 全新發布的Tencent HY2.0採用混合專家(MoE)架構,總參數量高達4
Getty Images CEO警告,若與Shutterstock的合併被英國監管機構阻止,將嚴重影響公司業務。他指出,監管機制未充分認識AI圖像生成技術的快速變革,未能適應行業革命性發展趨勢。
xAI旗下Grok Imagine實現純文本生成短視頻,用戶輸入描述即可在17秒內獲得帶音效、動態鏡頭和專業畫質的6-15秒視頻,無需圖像輸入或編輯基礎。這一升級打通“想法到成片”環節,以高速優勢挑戰OpenAI Sora和Google Veo的市場地位。
馬斯克分享網友用Grok Imagine技術製作的《銀翼殺手》短片,雖帶AI痕跡,但成功再現影片經典未來城市景觀,展現科幻魅力。
ImagineX是專業AI內容生成平臺,可快速創建高質量視頻和圖像。
一款將圖像轉化為 LoRA 模型的先進工具。
簡單描述即可生成高質量圖像,快速易用,免費開源,適合創作者。
突破性AI圖像生成器,支持一鍵編輯、多圖融合和出色角色一致性。
Alibaba
-
輸入tokens/百萬
輸出tokens/百萬
上下文長度
$2
Huawei
Minimax
bartowski
這是微軟Fara-7B模型的量化版本,使用llama.cpp的imatrix技術進行優化。該模型支持多種量化級別,從高精度的bf16到極低精度的IQ2_M,滿足不同硬件配置和性能需求。
這是ArliAI的GLM-4.5-Air-Derestricted模型的GGUF量化版本,使用llama.cpp和imatrix技術進行優化量化處理,提供多種量化級別選擇,適用於不同硬件配置和性能需求。
noctrex
這是一個基於Huihui-MiroThinker-v1.0-30B模型進行的MXFP4_MOE imatrix量化版本,專門針對文本生成任務優化,在保持模型性能的同時顯著減小了模型體積和推理成本。
這是TheDrummer的Snowpiercer-15B-v4模型的量化版本,使用llama.cpp和imatrix技術進行量化處理。該版本提供了從BF16到IQ2_S等多種量化級別,滿足不同硬件條件和性能需求的用戶。模型使用特定數據集進行校準優化,支持在線重打包功能以提升在ARM和AVX硬件上的性能。
這是對ai-sage的GigaChat3-10B-A1.8B模型進行的量化處理版本,採用llama.cpp的imatrix量化技術,可在不同硬件條件下更高效地運行。模型支持俄語和英語,主要用於文本生成任務。
drbaph
這是一個基於Qwen Image Edit 2509的LoRA模型,專門用於將輸入圖像轉換為帶有誇張特徵的素描漫畫藝術作品。模型能夠為人物和動物主體創作出幽默且富有藝術感的漫畫形象,突出面部特徵和特點。
這是kldzj的GPT-OSS-120B-Heretic-v2模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該模型通過量化技術顯著減少了存儲和計算資源需求,同時保持了較好的模型性能,便於在各種設備上部署運行。
這是對MiroThinker-v1.0-30B模型進行MXFP4_MOE imatrix量化的版本,基於mradermacher的imatrix實現。該量化模型保持了原模型的文本生成能力,同時通過量化技術提高了推理效率,適用於需要高效文本生成的各種應用場景。
這是對Qwen3-4B-Instruct-2507-heretic模型進行的量化處理版本,使用llama.cpp工具和imatrix數據集生成了多種量化類型的模型文件,可在多種環境下運行,為用戶提供了更多選擇。
這是基於p-e-w發佈的Llama-3.1-8B-Instruct-heretic模型的量化版本,使用llama.cpp b7049版本進行imatrix量化。提供了多種量化選項以適應不同硬件和性能需求,支持在LM Studio或llama.cpp中運行。
這是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技術進行量化處理。該模型是一個200億參數的大語言模型,提供了多種量化選項,從高質量到低質量不等,文件大小從41.86GB到11.52GB,適用於不同硬件條件。
DavidAU
基於Qwen 3微調的12B參數大語言模型,具備256k超長上下文處理能力,專門針對長文本生成任務進行優化。該模型結合了VLTO 8B模型基礎、Brainstorm 20x調優和NEO Imatrix數據集量化技術,能夠生成高質量的長文本內容。
這是一個增強版的多模態視覺語言模型,基於Qwen3-VL-8B-Thinking模型,通過Brainstorm 20x技術擴展至12B參數,採用NEO Imatrix增強的GGUF量化。模型具備強大的圖像理解、文本生成和多模態推理能力,在視覺感知、文本質量和創意場景方面都有顯著提升。
anikifoss
本項目是對MiniMax-M2模型進行的高質量HQ4_K量化,專門針對文本生成任務優化,特別適用於對話場景。該量化版本未使用imatrix,保持了模型的性能表現。
這是基於TheDrummer/Rivermind-24B-v1模型的llama.cpp量化版本,使用imatrix技術進行優化量化,提供多種量化級別以適應不同硬件配置,可在多種環境下高效運行。
本項目是基於Qwen3-VL-32B-Instruct模型的llama.cpp GGUF量化版本,提供多種量化類型以滿足不同硬件和性能需求。使用特定數據集結合imatrix選項進行量化,保證量化質量,支持在線重新打包權重以提高ARM和AVX機器的性能。
這是Qwen3-VL-2B-Thinking模型的Llamacpp imatrix量化版本,提供了多種量化類型的文件,可在不同硬件環境下高效運行。該模型是一個2B參數的多模態視覺語言模型,具備思維鏈推理能力。
這是Qwen3-VL-2B-Instruct模型的量化版本,使用llama.cpp工具和imatrix方法生成了多種量化級別的模型文件,便於在不同硬件環境下高效運行。該模型是一個2B參數的多模態視覺語言模型,支持圖像和文本的交互。
JanusCoderV-7B是由InternLM開發的7B參數代碼生成模型,本項目提供了使用llama.cpp進行imatrix量化的多個版本,支持多種量化級別以滿足不同硬件需求。
這是對internlm的JanusCoder-8B模型進行量化處理的版本,採用llama.cpp的imatrix量化技術,在保證性能的前提下顯著減少模型的存儲和計算資源需求,使模型能夠在更多設備上高效運行。
一個基於FAL AI的Logo生成服務器,提供圖像生成、背景去除和自動縮放功能。
基於即夢AI的圖像生成服務,專為Cursor IDE設計,實現文本描述到圖像的生成與保存。
一個通過MCP服務器提供IMAP和SMTP郵件服務的工具
一個提供圖像獲取和處理功能的MCP服務器,支持從URL、本地路徑和numpy數組加載圖像,並返回base64編碼的字符串和MIME類型。
一個基於Python的IMAP郵件管理服務,提供讀取和刪除特定文件夾郵件的功能。
一個支持獲取圖片尺寸和壓縮圖片的MCP服務工具
MCP圖像提取轉換服務,為AI助手提供本地/網絡圖像處理和base64編碼功能
一個基於MCP協議的圖像處理服務器,通過自然語言指令實現專業級圖片編輯功能
一個基於MCP協議的IMAP郵件服務器,為AI助手提供郵件檢查、處理和用戶偏好學習功能。
該項目是一個集成Stable Diffusion圖像生成功能的MCP服務器,為AI代理提供圖像生成服務,支持通過MCP協議或直接API調用生成圖像,幷包含開發調試工具。
一個基於GPT-4o-mini模型的圖像分析MCP服務器,可處理URL或本地路徑的圖像內容分析
一個基於TypeScript的MCP服務器,使用OpenAI的DALL-E 3模型根據文本提示生成圖像。
一個支持圖片下載和處理的MCP服務器,提供批量下載、格式轉換、尺寸調整和壓縮等功能
一個基於Replicate Flux模型的圖像生成MCP服務器,為Claude Desktop提供圖像生成能力
一個基於Sharp庫的圖片處理MCP服務,提供調整尺寸、格式轉換、裁剪、旋轉和獲取圖片信息等功能
該項目實現了一個MCP服務器,通過OpenAI的gpt-image-1模型提供圖像生成和編輯功能,支持文本描述生成圖像、基於參考圖像編輯或修復圖像,並可將結果保存到本地。
一個基於模型上下文協議的IMAP/SMTP郵件服務器,支持通過自然語言指令讓AI助手(如Claude、Cursor)進行郵件搜索、閱讀、發送和管理操作。
Image Gen MCP Server是一個通用AI圖像生成服務,通過Model Context Protocol(MCP)標準協議為各類LLM聊天機器人提供跨平臺、多模型的圖像生成能力,支持OpenAI和Google的多種圖像模型,實現文本對話到可視化內容的無縫轉換。
ImageGen MCP Server是一個支持多種AI圖像生成模型(包括GPT-Image-1、Google Imagen 4、Flux 1.1等)的MCP服務器,提供靈活的圖像生成、尺寸調整和輸出格式選項,可無縫集成到各種MCP客戶端中。
一個基於MCP協議的圖像下載與優化服務