AMD与HPE深化合作,共同推动开放式、可扩展AI基础设施建设。合作以AMD专为大规模AI工作负载设计的“Helios”全栈平台为基础,HPE将成为首批采用该架构的系统提供商之一。同时,HPE将结合与博通合作开发的Juniper网络交换机,确保AI集群间的高带宽、低延迟连接,加速新一代AI基础设施发展。
WordPress推出实验性AI开发工具Telex,旨在通过“氛围编码”帮助开发者高效生成Gutenberg模块。该工具已在网站建设中应用,并在年度报告会议上由联合创始人展示多个实际案例。
Google Photos推出2025年度回顾功能,类似Spotify Wrapped,通过图形特效和统计数据帮助用户回顾和分享年度精彩瞬间。首次引入基于Google Gemini大模型的智能高光提取功能,自动识别用户兴趣和代表性记忆,呈现年度主线主题。
麻省理工初创公司OpenAGI推出AI模型Lux,在计算机操作任务中表现超越OpenAI和Anthropic的同类产品,成本仅为十分之一。该模型通过解析屏幕截图自动执行桌面应用操作,在Online-Mind2Web基准测试中成功率高达83.6%,显著优于OpenAI Operator的61.3%。
Marble可让用户通过简单提示创建、编辑和分享高保真3D世界。
通过文本提示生成高质量图像和视频的AI工具。
利用我们的卡通人物制作器创建有趣且个性化的卡通形象,上传您的照片,即可在几秒钟内获得高质量、逼真的卡通形象!
控制您的LinkedIn帐户并通过单个API实时检索数据,适用于复杂的自动化、高级推广和数据收集。
Google
$0.49
Input tokens/M
$2.1
Output tokens/M
1k
Context Length
Openai
$7.7
$30.8
200
$0.7
$2.8
$17.5
Anthropic
$21
$105
Bytedance
$1.2
$3.6
4
Alibaba
$2
-
256
$0.8
128
Deepseek
$4
$12
Tencent
$0.35
400
Iflytek
$1.95
16
$1.6
$10
8
$8.75
$70
Baidu
32
131
MCG-NJU
SteadyDancer是一个基于图像到视频范式的强大动画框架,专门用于生成高保真且时间连贯的人体动画。该框架通过稳健的首帧保留机制,有效解决了传统方法中的身份漂移问题,在视觉质量和可控性上表现出色,同时显著减少了训练资源需求。
kyr0
这是一个专为苹果硅芯片设备优化的自动语音识别模型,通过转换为MLX框架并量化为FP8格式,实现在苹果设备上的快速端上语音转录。该模型针对逐字精度进行微调,特别适用于需要高精度转录的场景。
noctrex
这是对MiroThinker-v1.0-30B模型进行MXFP4_MOE imatrix量化的版本,基于mradermacher的imatrix实现。该量化模型保持了原模型的文本生成能力,同时通过量化技术提高了推理效率,适用于需要高效文本生成的各种应用场景。
OpenMMReasoner
OpenMMReasoner是一个完全透明的两阶段多模态推理方案,涵盖有监督微调(SFT)和强化学习(RL)。该方案通过精心构建高质量数据集,在多个多模态推理基准测试中超越了强大的基线模型,为未来大规模多模态推理研究奠定了坚实的实证基础。
onnx-community
SAM3是基于概念的任意分割模型,能够根据输入的点、框等提示信息生成精确的图像分割掩码。该版本是ONNX格式的SAM3跟踪器模型,通过Transformers.js库可在浏览器环境中高效运行。
这是MiniMax-M2-REAP-172B-A10B模型的MXFP4_MOE量化版本,是一个内存高效的压缩模型。通过REAP(路由加权专家激活剪枝)方法,在保持性能的同时将模型从230B参数压缩到172B参数,体积缩小25%,适用于资源受限的环境、本地部署和学术研究。
hum-ma
Wan2.2-TI2V-5B-Turbo-GGUF是基于quanhaol/Wan2.2-TI2V-5B-Turbo基础模型转换而来的图像转视频模型,经过优化可在4GB GPU上运行,具有出色的通用性和高效推理能力。
magiccodingman
这是一个基于Qwen3 4B模型的混合量化版本,采用MXFP4_MOE混合权重技术,在保持近乎无损精度的同时实现了更小的文件大小和更高的推理速度。该模型通过精心组合MXFP4和高精度嵌入/输出权重,达到了接近Q8量化的精度水平,同时具备Q4-Q6级别的吞吐量。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8是基于百度ERNIE-4.5架构的多模态大语言模型,通过AWQ量化技术实现8位精度,在保持高性能的同时大幅降低内存需求。该模型在视觉推理、STEM问题解决、图像分析等方面表现出色,具备强大的多模态理解和推理能力。
kirankumarpetlu
这是一个基于Google Gemma-2B-IT基础模型,使用PEFT(参数高效微调)和LoRA技术进行优化的文本生成模型。该模型通过参数高效的方法在保持基础模型能力的同时,针对特定任务进行了优化。
这是一个基于Qwen3-VL-30B的量化版本模型,专门用于图像文本到文本的转换任务。该模型通过量化技术优化了原始模型,提供了更高效的推理解决方案。
unsloth
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的小型混合专家模型,总参数达2300亿,激活参数为100亿。该模型在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
mlx-community
这是一个基于 Kimi-Linear-48B-A3B-Instruct 模型转换的 6 位量化版本,专为 Apple MLX 框架优化。该模型保留了原模型强大的指令跟随能力,同时通过量化技术显著降低了存储和计算需求,适合在 Apple 硬件上高效运行。
SadraCoding
SDXL-Deepfake-Detector 是一款精准检测 AI 生成人脸的工具,专注于维护数字世界的真实性,为抵御视觉虚假信息提供隐私保护且开源的解决方案。该模型通过微调预训练模型实现轻量级且高准确率的检测。
Qwen
Qwen3-VL是通义系列最强大的视觉语言模型,采用混合专家模型架构(MoE),提供GGUF格式权重,支持在CPU、GPU等设备上进行高效推理。模型在文本理解、视觉感知、空间理解、视频处理等方面全面升级。
Qwen3-VL是通义系列中最强大的视觉语言模型,具备出色的文本理解和生成能力、深入的视觉感知和推理能力、长上下文支持、强大的空间和视频动态理解能力,以及智能体交互能力。本仓库提供GGUF格式权重,支持在CPU、GPU等设备上高效推理。
Qwen3-VL-2B-Instruct-GGUF是通义千问系列的多模态视觉语言模型的GGUF量化版本,具备20亿参数,支持图像理解和文本生成的无缝融合,可在CPU、GPU等设备上高效运行。
moonshotai
Kimi Linear是一种高效混合线性注意力架构,在短上下文、长上下文和强化学习场景中均优于传统全注意力方法。它通过Kimi Delta Attention (KDA)机制优化注意力计算,显著提升性能和硬件效率,特别擅长处理长达100万令牌的长上下文任务。
catalystsec
本项目是使用 mlx-lm 库通过动态权重量化(DWQ)将 MiniMax-M2 模型量化为 3 位的成果。它能够在资源受限的条件下,高效地进行文本生成任务,为相关应用提供了更轻量级的解决方案。
mradermacher
Lamapi/next-12b 是一个基于12B参数的大语言模型,通过多语言数据集进行微调,支持50多种语言,具备高效文本生成能力,适用于化学、代码、生物、金融、法律等多个领域的自然语言处理任务。
Eino是一个专为Golang设计的LLM应用开发框架,旨在通过简洁、可扩展、可靠且高效的组件抽象和编排能力,简化AI应用开发流程。它提供丰富的组件库、强大的图形编排功能、完整的流处理支持以及高度可扩展的切面机制,覆盖从开发到部署的全周期工具链。
hyper-mcp是一个基于WebAssembly插件的高性能MCP服务器,支持通过容器注册表分发插件,适用于多种AI应用场景。
一个用于通过SQL查询苹果健康数据的MCP服务器,基于DuckDB实现高效分析,支持自然语言查询和自动报告生成。
一个基于Python的MCP服务器,通过Notion API提供高级待办事项管理和内容组织功能,实现AI模型与Notion的无缝集成。
Google Workspace MCP服务器是一个功能全面的多客户端协议服务器,通过自然语言控制Google日历、云端硬盘、Gmail、文档等全套办公套件,支持一键安装到Claude桌面端,提供高级OAuth认证和服务缓存。
Jinni是一个高效为大型语言模型提供项目上下文的工具,通过整合相关文件及其元数据,克服逐个文件读取的限制。
GPT Researcher MCP Server是一个基于MCP协议的AI研究服务器,能够通过深度网络搜索和验证,为LLM应用提供高质量、优化的研究结果。
基于多智能体系统(MAS)的高级顺序思维处理工具,通过协调多个专业代理进行深度分析和问题分解
Solana-MCP是一个基于Solana区块链的全链操作平台,通过自然语言命令简化用户与Solana生态的交互,支持DApp集成、数字资产管理、DeFi操作等功能,利用LLM技术和智能合约实现高效安全的链上操作。
该项目实现了一个基于Model Context Protocol (MCP)的文档检索服务器,能够为AI助手动态获取Python库的最新官方文档内容。支持LangChain、LlamaIndex和OpenAI等库,通过SERPER API进行高效搜索,并使用BeautifulSoup解析HTML内容。项目设计可扩展,便于添加更多库的支持。
Needle MCP服务器是一个文档管理和搜索工具,通过与Claude桌面应用集成,利用Needle生态系统实现高效的文档组织和检索。
InsightFlow是一个结合实时数据处理与AI智能分析的先进分析平台,通过Model Context Protocol(MCP)实现高级AI能力,并与Claude AI无缝集成,提供智能数据分析和决策支持。
一个基于AWS SES的MCP服务器,用于通过Cursor或Claude Desktop直接发送电子邮件,支持文本、HTML格式及高级功能。
MSSQL MCP服务器是一个增强型数据库管理工具,通过标准接口为语言模型提供全面的Microsoft SQL Server数据库访问能力,支持23种数据库操作工具,包括模式检查、查询执行、存储过程管理等高级功能。
pickapicon-mcp是一个为前端/UI/设计师提供的工具,通过Iconify API快速获取SVG图标,简化工作流程,与LLMs结合使用更高效。
OpenCV MCP Server是一个基于Python的计算机视觉服务,通过Model Context Protocol (MCP)提供OpenCV的图像和视频处理能力。它为AI助手和语言模型提供从基础图像处理到高级对象检测的全套计算机视觉工具,包括图像处理、边缘检测、人脸识别、视频分析和实时对象跟踪等功能。
Kubernetes MCP是一个基于Go语言实现的模型上下文协议服务器,专为与Kubernetes集群交互设计。它通过MCP协议提供丰富的Kubernetes资源管理功能,支持多种传输方式,并包含集群指标监控、日志分析等高级特性。
Superdesign MCP服务器是一个设计协调器,将开源的Superdesign AI设计代理集成到Claude Code中,无需API密钥即可使用其高级设计功能。它通过MCP服务器提供结构化规范,使Claude Code的LLM能够执行设计任务,支持UI设计、组件、图标等多种设计类型,并包含迭代和设计系统提取功能。
一个连接Obsidian知识库的MCP服务器,通过REST API插件使AI代理能执行复杂知识发现和分析任务,支持高级搜索、正则匹配和全文检索等功能。
基于MCP协议的引力波信号检测与优化系统,专注于GW150914事件分析,通过AI智能探索参数空间实现高效信号检测