苹果公司为Siri工程师团队启动“AI编程训练营”,通过系统性再培训提升其大语言模型工程能力,以支持新一代Siri和iOS系统AI功能开发。此举表明苹果已将AI重塑Siri提升至公司战略高度,旨在追赶谷歌和OpenAI在生成式AI领域的进展。培训内容涵盖模型原理到工程部署全链路,重点聚焦Prompt工程。
阿里巴巴旗下ATH事业群推出AI开发工具Meoo(秒悟),集成千问、Kimi、GLM和MiniMax四大模型,支持用户零门槛将创意转化为产品。用户只需用自然语言描述想法,即可在一分钟内自动生成网站或H5页面,并一键部署至阿里云上线。
教育部等五部门联合印发《“人工智能+教育”行动计划》,旨在推动人工智能与教育深度融合,目标到2030年构建覆盖全学段和全社会的通识教育体系,提升人才培养规模与质量。计划明确了四大核心战略任务,统筹人工智能人才培养与应用创新。
荣耀发布自研“龙虾”YOYO Claw智能体技术,旨在解决AI智能体上手复杂、成本高、隐私风险三大痛点。作为“龙虾宇宙”概念的落地,该技术实现多端一体、一虾多吃,推动AI智能体在终端部署与应用的发展。
一键部署Openclaw AI Agent,内置免费阿里云API额度,无需编码
AI App Builder,可将想法快速转化为全栈应用,即时部署
一键部署 OpenClaw,全托管云服务,零运维,$19/月起享专属 AI 助手。
Verilian可部署AI Agent监控网络,捕捉有意义的信息变化。
Google
$0.49
Input tokens/M
$2.1
Output tokens/M
1k
Context Length
$17.5
Alibaba
$2
-
256
Baidu
32
Openai
$0.4
128
$0.75
64
$0.63
$3.15
131
$1
$4
Huawei
Chatglm
Tencent
$0.8
$8
$0.3
DevQuasar
本项目提供了 Qwen/Qwen3-VL-32B-Thinking 的量化版本(Int4),致力于降低模型部署的硬件门槛,让先进的视觉语言模型知识为每个人所用。
mradermacher
这是一个专注于网络安全领域的20B参数开源大语言模型,基于GPT-OSS架构,并融合了多个网络安全指令数据集进行微调。模型提供了多种量化版本,便于在资源受限的环境中部署,可用于生成网络安全相关的文本、代码和分析报告。
MaziyarPanahi
这是NousResearch/Hermes-4.3-36B模型的GGUF量化格式版本,由MaziyarPanahi进行量化处理。GGUF是一种高效的模型格式,旨在优化本地部署和推理性能,支持多种量化级别(2位至8位),适用于广泛的文本生成任务。
ss-lab
这是一个基于Meta LLaMA 3 8B模型,使用Unsloth框架进行高效微调,并转换为GGUF格式的轻量级文本生成模型。模型针对Alpaca数据集进行了优化,适用于本地部署和推理,特别适合在资源受限的环境中使用。
huawei-csl
这是使用华为SINQ(Sinkhorn归一化量化)方法对Qwen3-Next-80B大语言模型进行4位量化后的版本。SINQ是一种新颖、快速且高质量的量化方法,旨在显著压缩模型体积(约减少75%),同时保持与原始模型几乎不变的准确性,使其更易于部署。
ubergarm
这是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多种量化选项,从高精度的Q8_0到极度压缩的smol-IQ1_KT,满足不同硬件条件下的部署需求。该模型支持32K上下文长度,采用MLA架构,专为对话场景优化。
bartowski
这是kldzj的GPT-OSS-120B-Heretic-v2模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型通过量化技术显著减少了存储和计算资源需求,同时保持了较好的模型性能,便于在各种设备上部署运行。
本项目提供了Qwen3-4B-Thinking-2507模型的GGUF格式文件,这是一个具有思维链推理能力的4B参数大语言模型,支持多种量化版本,便于在各种硬件上部署运行。
本项目提供了cerebras/MiniMax-M2-REAP-172B-A10B模型的量化版本,致力于让知识为大众所用。这是一个1720亿参数的大型语言模型,经过优化和量化处理,旨在降低部署成本和提高推理效率。
noctrex
这是MiniMax-M2-REAP-172B-A10B模型的MXFP4_MOE量化版本,是一个内存高效的压缩模型。通过REAP(路由加权专家激活剪枝)方法,在保持性能的同时将模型从230B参数压缩到172B参数,体积缩小25%,适用于资源受限的环境、本地部署和学术研究。
fibonacciai
RealRobot_chatbot_llm是基于Gemma3n架构的专业产品人工智能模型,专门在RealRobot产品目录的专有数据集上进行了微调。该模型能够根据企业自身的产品数据,快速创建准确、经济高效且可部署的专业语言模型,提供高度专业化的产品问答服务。
这是WeiboAI/VibeThinker-1.5B的量化版本,致力于让知识为每个人所用。该项目提供了经过优化的模型权重,使模型更易于部署和使用。
geoffmunn
这是Qwen/Qwen3-Coder-30B-A3B-Instruct语言模型的GGUF量化版本,专门针对代码生成和编程任务优化,采用FP32精度转换,适用于本地推理部署。
samwell
NV-Reason-CXR-3B GGUF是NVIDIA NV-Reason-CXR-3B视觉语言模型的量化版本,专为边缘设备部署优化。这是一个30亿参数的模型,专注于胸部X光分析,已转换为GGUF格式并进行量化处理,可在移动设备、桌面设备和嵌入式系统上高效运行。
本项目提供了 `yanolja/YanoljaNEXT-Rosetta-4B-2511` 模型的 GGUF 量化版本。该模型是一个专注于多语言翻译任务的大语言模型,支持包括中文、英语、日语、韩语、法语、德语等在内的 33 种语言。量化版本由 mradermacher 创建,提供了多种不同精度和文件大小的量化选项,便于在资源受限的环境下部署和使用。
unsloth
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
Qwen3-VL是阿里巴巴推出的新一代视觉语言模型,在文本理解、视觉感知、空间理解、长上下文处理和智能体交互等方面全面升级,支持从边缘设备到云端的灵活部署。
s3dev-ai
这是Google embeddinggemma-300m基础模型的各种GGUF格式量化版本,专门为高效部署和不同场景使用而优化。该模型专注于句子嵌入和相似度计算任务。
Gelato-30B-A3B是针对GUI计算机使用任务进行微调的最先进(SOTA)模型,提供了量化版本以优化部署效率。该模型专门设计用于理解和处理图形用户界面相关的任务。
QuantStack
这是NVIDIA ChronoEdit-14B-Diffusers模型的GGUF量化版本,专门用于图像转视频任务。该模型保留了原始模型的所有功能,同时通过GGUF格式优化了部署和运行效率。
Eino是一个专为Golang设计的LLM应用开发框架,旨在通过简洁、可扩展、可靠且高效的组件抽象和编排能力,简化AI应用开发流程。它提供丰富的组件库、强大的图形编排功能、完整的流处理支持以及高度可扩展的切面机制,覆盖从开发到部署的全周期工具链。
Refact Agent 是一个开源AI编程助手,支持多语言代码生成、调试和优化,集成主流开发工具,可本地化部署并提供智能补全和代码解释功能。
MCP Atlassian是一个为Atlassian产品(Confluence和Jira)设计的模型上下文协议服务器,支持云端和本地部署,提供AI助手集成功能。
FastAPI-MCP是一个将FastAPI端点作为模型上下文协议(MCP)工具暴露的库,内置认证功能,支持灵活部署和ASGI传输。
该项目是一个集成Sonar API的MCP服务器实现,为Claude提供实时网络搜索能力。包含系统架构、工具配置、Docker部署及多平台集成指南。
微软官方MCP服务器集合,提供Azure、GitHub、Microsoft 365、Fabric等多种服务的AI助手集成工具,支持本地和远程部署,帮助开发者通过标准化协议连接AI模型与各类数据源和工具。
mcp-installer是一个用于安装其他MCP服务器的服务工具,支持通过npm或PyPi安装Node和Python服务器,简化MCP服务器的部署流程。
EdgeOne Pages MCP是一个通过MCP协议快速部署HTML内容到EdgeOne Pages并获取公开URL的服务
一个基于Claude AI的Docker操作协议服务器,提供容器和Compose堆栈的创建、部署、日志查看等功能。
API 200是一个开源API集成平台,提供第三方API的快速接入和管理功能,包含自动生成代码、文档、认证、缓存和错误处理等特性,支持自托管部署和MCP服务。
automcp是一个工具,能够将现有的AI代理框架(如CrewAI、LangGraph等)轻松转换为MCP服务器,实现标准化接口访问。支持多种框架的适配和部署,提供快速启动和配置功能。
DevOps AI Toolkit是一个基于AI的平台工程和DevOps自动化工具,通过智能Kubernetes操作和对话式工作流,为团队提供资源部署推荐、问题修复、项目治理和共享提示库等功能,使复杂的云原生操作可通过自然语言交互实现。
一个轻量级的MCP服务器,为AI助手如Claude提供实时天气数据查询和解析功能。支持本地和远程两种部署方式,包含Docker容器化方案。
XiYan MCP Server是一个基于XiYan-SQL的模型上下文协议服务器,支持通过自然语言查询数据库,提供多种LLM模型配置和数据库连接方式,适用于本地或远程部署。
XiYan MCP Server是一个基于XiYan-SQL的模型上下文协议服务器,支持通过自然语言查询数据库,提供多种LLM模型集成和本地化部署选项。
n8n是一个面向技术团队的工作流自动化平台,结合了代码灵活性和无代码速度,提供400+集成、原生AI功能和公平代码许可,支持自托管或云端部署。
MCP测试客户端是一个中间件,既作为Claude的服务端,又作为被测服务器的客户端,用于开发阶段测试MCP服务器。它支持部署服务器、调用工具、运行测试、查看日志等功能,并提供CLI交互界面。
该项目是一个MCP服务器,用于将代码部署到Google Cloud Run,支持通过AI代理、IDE和助手应用进行部署。
Pipelock是一个开源的AI代理防火墙,通过单二进制文件提供零运行时依赖的安全防护。它采用能力分离架构,在代理与互联网之间部署九层扫描管道,防止秘密泄露、提示注入和恶意工具调用。支持多种代理模式(Fetch代理、正向代理、WebSocket代理)和MCP代理,提供紧急停止开关、审计日志和SIEM集成等功能。
RagRabbit是一个自托管的AI站点搜索和LLM.txt生成工具,支持一键部署在Vercel上。