【AI日报】月之暗面公司Kimi k2模型性能获赞超越GPT-5,同时该公司即将完成新一轮数亿美元融资,距上次融资仅隔数月。国内AI大模型领域持续火热,开发者可通过平台了解最新产品动态。
10月23日,腾讯在ima open day活动上正式发布了全新升级的ima2.0版本。作为业界首个融合Agent能力的个人知识库,ima2.0推出了“任务模式”,将知识库从简单的搜索问答工具升级为能够理解复杂任务、自主拆解步骤、调用工具并完成整套流程的智能伙伴。
微软在Photos应用中推出两项AI新功能:Restyle Image和Image Creator,目前仅限Copilot+电脑使用。Restyle Image可智能重塑照片艺术风格,Image Creator支持AI生成图像,旨在提升用户编辑和创作能力,简化图像处理流程。
Snapchat免费开放AI图像生成工具“Imagine Lens”,所有用户均可通过文本提示编辑或生成图片。此举旨在应对Meta AI和OpenAI等对手在AI视频领域对年轻用户的竞争,工具原为付费功能,现转为全民创作服务。
免费AI图像生成器,基于Nano banana技术,可瞬间生成高质量纳米香蕉图像。
免费AI图像增强器,一键提升照片质量至8K分辨率,去除模糊锐化边缘。
在线免费AI图像编辑器,无需注册,用文本快速编辑、转换照片
在线AI图像编辑与生成工具,用先进AI技术秒速将想法变为艺术
noctrex
这是阿里巴巴通义深度研究30B-A3B模型的量化版本,采用MXFP4_MOE量化技术并额外添加imatrix量化,旨在优化模型性能和资源使用效率,适用于文本生成任务。
bartowski
这是Cerebras公司Qwen3-Coder-REAP-25B-A3B模型的量化版本,使用llama.cpp的imatrix技术进行量化处理,能够在减少模型存储空间和计算资源需求的同时保持模型性能。
这是inclusionAI的Ling-flash-2.0模型的Llamacpp imatrix量化版本。通过先进的量化技术,在保持模型性能的同时显著减少了内存占用和计算量,提高了运行效率。支持多种量化级别,适用于不同硬件配置。
这是inclusionAI的Ling-mini-2.0模型的量化版本,使用llama.cpp的imatrix技术进行量化处理,提供了从32.54GB的BF16到4.66GB的IQ2_XS等多种量化选项,可在多种硬件环境中高效运行。
这是AgentFlow agentflow-planner-7b模型的GGUF量化版本,使用llama.cpp的imatrix技术进行量化,提供多种量化级别选择,适用于不同硬件配置下的高效推理。
这是TheDrummer的Cydonia-24B-v4.2.0模型的量化版本,使用llama.cpp和imatrix技术进行优化处理,为不同硬件和需求提供了多种量化类型选择,方便用户在不同场景下高效运行模型。
这是gustavecortal的Beck-4B模型的量化版本,使用llama.cpp工具和imatrix数据集进行量化优化,提供了从BF16到IQ2_M等多种量化类型选择,可在多种硬件环境下高效运行。
这是一个72B参数的大型语言模型量化版本,使用llama.cpp的imatrix技术进行优化量化处理,提供了多种量化级别以适应不同硬件条件,支持在LM Studio和llama.cpp等环境中运行。
这是Yanolja公司的YanoljaNEXT-Rosetta-12B-2510模型的量化版本,通过llama.cpp工具和imatrix数据集进行量化处理,提供了多种量化类型以适应不同硬件环境,在保持模型质量的同时显著减少资源占用。
这是微软UserLM-8b模型的量化版本,使用llama.cpp的imatrix量化技术,可在保持模型性能的同时显著减少内存占用和提升推理速度。支持多种量化级别,从高质量到极致压缩,适用于不同硬件环境。
这是一个基于TheDrummer的Behemoth-ReduX-123B-v1.1模型的Llamacpp imatrix量化版本,使用先进的量化技术处理,提供多种量化级别选择,可在不同硬件环境下高效运行。
anikifoss
GLM-4.6的高质量量化版本,采用先进的量化技术在不使用imatrix的情况下实现,保持了良好的模型性能和兼容性,适用于对话等多种应用场景。
这是一个基于swiss-ai的Apertus-70B-Instruct-2509模型进行量化处理的版本,使用llama.cpp的imatrix技术生成多种量化模型文件,旨在提升模型运行效率和资源利用率,支持在不同硬件条件下灵活选择适合的量化级别。
这是对swiss-ai的Apertus-8B-Instruct-2509模型进行量化处理的版本,使用llama.cpp工具和imatrix数据集生成多种量化类型的GGUF文件,便于在不同硬件环境下高效运行。
这是IBM Granite 4.0 Micro模型的量化版本,使用llama.cpp的imatrix技术进行优化处理,旨在提升模型在特定环境下的运行效率和性能。该版本提供了多种量化级别选择,适用于不同的硬件配置和使用场景。
这是ServiceNow-AI的Apriel-1.5-15b-Thinker模型的量化版本,使用llama.cpp的imatrix技术进行优化,能够在不同硬件条件下高效运行。模型支持图像文本到文本任务,提供多种量化级别以适应不同需求。
这是GLM-4.6模型的Llamacpp imatrix量化版本,使用llama.cpp b6647版本进行量化。该模型提供了多种量化版本,可在不同硬件条件下运行,满足不同用户的需求。所有量化版本均使用imatrix选项,结合了特定数据集进行优化。
Tesslate
WEBGEN DEVSTRAL IMAGES 是一个专注于网页生成的人工智能模型,能够利用 HTML、CSS、JS 和 Tailwind 技术生成单页式网页。该项目基于自定义模板进行训练,采用监督微调方法,使用 GPT-OSS-120B 生成的数据集进行训练。
calcuis
Qwen Image Edit Plus GGUF 是一个基于 Qwen 模型的图像编辑项目,提供多种运行方式,支持图像编辑和生成任务。该项目通过 GGUF 格式优化了模型部署和运行效率。
这是MistralAI Magistral Small 2509模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该版本在保持相对较好性能的同时,显著减少了模型的内存占用和计算资源需求,使其能够在各种硬件环境下运行。
一个基于FAL AI的Logo生成服务器,提供图像生成、背景去除和自动缩放功能。
基于即梦AI的图像生成服务,专为Cursor IDE设计,实现文本描述到图像的生成与保存。
一个基于IMAP和SMTP协议的电子邮件集成MCP服务器,支持读取、发送、搜索邮件及管理邮箱文件夹功能。
一个基于xAI Grok API的MCP服务器,提供AI图像分析功能,支持URL和本地文件的图像描述、元数据提取和OCR文字识别
一个基于MCP协议的图像生成服务器,使用Replicate的flux-schnell模型,支持通过文本提示生成图像,并可配置多种参数。
一个基于TypeScript的MCP服务器,使用OPENAI的dall-e-3模型根据文本提示生成图像,并支持将生成的图像保存到本地指定目录。
一个支持图片下载和处理的MCP服务器,提供批量下载、格式转换、尺寸调整和压缩等功能
一个基于GPT-4o-mini模型的图像分析MCP服务器,可处理URL或本地路径的图像内容分析
一个用于获取剪贴板内容的MCP服务器,目前仅支持MacOS系统上的图像内容。
一个基于MCP协议的IMAP邮件服务器,为AI助手提供邮件检查、处理和用户偏好学习功能。
一个基于OpenAI GPT-4o/gpt-image-1模型的图像生成与编辑工具,支持通过文本提示生成图像、编辑图像(如修复、扩展、合成等),并兼容多种MCP客户端。
Image Generation MCP Server是一个为Claude Desktop提供图像生成功能的MCP服务器,使用Replicate Flux模型,支持通过文本提示生成图像,并可通过Smithery或npm安装配置。
一个允许Claude与OpenAI对话并使用gpt-image-1生成图像资产的工具,适用于游戏或网页开发中需要生成单个资产的场景。
Imagician是一个基于Model Context Protocol(MCP)的图像处理服务器,提供包括调整大小、格式转换、裁剪、压缩等多种图像编辑功能。
一个基于IMAP协议的Gmail集成MCP服务器,提供邮件阅读、搜索、发送和管理功能,支持多账户和AI助手集成。
一个基于MCP协议的图像下载与优化服务
一个基于Stable Diffusion WebUI API的文本生成图像MCP服务器
一个提供图像获取和处理功能的MCP服务器,支持从URL、本地路径和numpy数组加载图像,并返回base64编码的字符串和MIME类型。
基于TypeScript的MCP服务器,提供AI图像和视频生成功能,需要GPT4O Image Generator的API密钥支持。
基于Ideogram API的图片生成MCP服务器