钉钉与壹生检康联合推出首个专为医生设计的AI助手“豆蔻医生超级助理”,聚焦产前诊断和妇科肿瘤等复杂场景,为临床医生提供智能支持,应对日益增多的医疗选择。
灵光App发起「全民手搓灵光闪应用」大赛,口号“想搓什么搓什么,一句话手搓AI应用”,旨在降低AI应用创作门槛,让大众通过自然语言描述功能,最快30秒生成可交互应用并分享,推动全民参与创新。
Meta AI实验室推出基于Llama3.18B的CoT-Verifier模型,通过TopK转码器机制实现白盒验证,帮助开发者精准定位和修正AI链式思维推理中的错误环节,突破传统验证方法的局限。
DeepSeek发布全球首个开源数学推理大模型DeepSeek-Math-V2,拥有6850亿参数,达到国际数学奥赛金牌水平。该模型基于DeepSeek-V3.2架构,采用Apache2.0协议开源,其核心突破是创新的“生成-验证”双模型闭环机制,显著提升了数学推理能力。
免费在线批量去除Sora2视频水印,无需登录,保留原视频质量。
AI驱动的企业名称生成器,为创业者和企业提供独特名称创意。
免费启动,无需技能,一键上传图片转视频,无水印,含模板
可无限对话创建和聊天AI角色,无过滤限制,保护隐私
xai
$21.6
输入tokens/百万
$108
输出tokens/百万
256k
上下文长度
openai
$144
$576
200k
google
$9
$72
1M
$14.4
$57.6
$7.92
$31.68
deepseek
$3.6
$15.48
128k
400k
$2.16
$18
anthropic
$540
chatglm
$4.03
$7.99
$0.43
$1.01
131.1k
minimax
-
alibaba
$0.72
$432
mradermacher
Diver-GroupRank-7B是一个专门用于段落排序、文本排序、推理和信息检索的7B参数模型。本版本提供了多种量化格式,适用于不同的硬件和性能需求。
基于AQ-MedAI/Diver-GroupRank-7B模型的静态量化版本,专门用于段落排序、文本排序、推理和信息检索等任务。提供了多种量化级别以适应不同的硬件需求。
redis
这是一个基于Cross Encoder架构的微调模型,专门用于语义缓存任务中的文本对相关性评分。模型在LangCache Sentence Pairs数据集上微调,能够有效计算文本对的相似度得分,适用于句子对分类和相关任务。
bartowski
这是对VibeStudio的MiniMax-M2-THRIFT模型进行的量化处理版本,使用llama.cpp工具和特定数据集生成,提供多种量化类型的GGUF文件,支持在LM Studio或基于llama.cpp的项目中运行。
mlx-community
VibeThinker-1.5B的4位量化版本,基于MLX框架针对苹果芯片优化,是一个拥有15亿参数的密集语言模型,专门用于数学推理和算法编码问题
noctrex
这是对MiroThinker-v1.0-30B模型进行MXFP4_MOE imatrix量化的版本,基于mradermacher的imatrix实现。该量化模型保持了原模型的文本生成能力,同时通过量化技术提高了推理效率,适用于需要高效文本生成的各种应用场景。
这是 vanta-research/atom-v1-preview-12b 模型的量化版本,提供多种量化类型选择,适用于对话、协作、教育等多种场景。该模型基于 Gemma 架构,支持英语语言处理。
atom-v1-preview-12b是基于vanta-research/atom-v1-preview-12b基础模型的量化版本,提供多种GGUF量化格式选择,适用于对话、协作、教育等多个领域。
Mungert
MiroThinker v1.0是一个开源研究智能体,通过模型级别的交互式扩展提升工具增强推理和信息搜索能力。该模型在多个基准测试中表现出色,支持长上下文和深度多步分析。
这是一个基于REAP方法对MiniMax-M2中40%专家进行均匀剪枝得到的139B参数大语言模型,采用GLM架构和专家混合(MoE)技术,通过llama.cpp进行多种量化处理,适用于文本生成任务。
dogeater1612
这是一个基于Google Gemma 2 9B模型微调的荷兰语患者模拟模型,专门为医疗教育场景设计。模型始终以固定的JSON结构响应,模拟一位刚做完手术正在康复的患者'玛丽亚',支持护理专业学生在安全环境中锻炼沟通和临床推理能力。
DevQuasar
本项目提供了cerebras/MiniMax-M2-REAP-172B-A10B模型的量化版本,致力于让知识为大众所用。这是一个1720亿参数的大型语言模型,经过优化和量化处理,旨在降低部署成本和提高推理效率。
advy
本模型是基于meta-llama/Llama-3.1-70B-Instruct在特定数据集上微调得到的大语言模型,专门用于文本生成任务,在评估集上取得了0.6542的损失值表现。
TeichAI
本模型是基于Qwen3-4B架构的知识蒸馏模型,通过约5440万个由Gemini 2.5 Flash生成的标记进行训练,旨在整合Gemini-2.5 Flash的行为、推理过程和知识到单一数据集中。
onnx-community
SAM3是基于概念的任意分割模型,能够根据输入的点、框等提示信息生成精确的图像分割掩码。该版本是ONNX格式的SAM3跟踪器模型,通过Transformers.js库可在浏览器环境中高效运行。
这是MiniMax-M2-REAP-172B-A10B模型的MXFP4_MOE量化版本,是一个内存高效的压缩模型。通过REAP(路由加权专家激活剪枝)方法,在保持性能的同时将模型从230B参数压缩到172B参数,体积缩小25%,适用于资源受限的环境、本地部署和学术研究。
这是kldzj/gpt-oss-120b-heretic模型的量化版本,使用llamacpp进行量化处理,提供了多种量化类型选择,包括BF16、Q8_0和MXFP4_MOE等特殊格式,显著提升了模型运行效率。
MaziyarPanahi
VibeThinker-1.5B-GGUF 是 WeiboAI/VibeThinker-1.5B 模型的 GGUF 量化版本,由 MaziyarPanahi 进行量化处理。该模型是一个 1.5B 参数的文本生成模型,支持多种量化级别(2位到8位),便于在各种硬件上高效运行。
pnnbao-ump
VieNeu-TTS-1000h是一款先进的越南语端侧文本转语音模型,基于约1000小时高质量越南语语音数据训练,具备即时语音克隆功能,支持越南语与英语的无缝切换,能在CPU或GPU上实时合成24kHz波形。
这是对Qwen3-4B-Instruct-2507-heretic模型进行的量化处理版本,使用llama.cpp工具和imatrix数据集生成了多种量化类型的模型文件,可在多种环境下运行,为用户提供了更多选择。
Klavis AI是一个开源项目,提供在Slack、Discord和Web平台上简单易用的MCP(模型上下文协议)服务,包括报告生成、YouTube工具、文档转换等多种功能,支持非技术用户和开发者使用AI工作流。
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供丰富的网页抓取、搜索和内容提取功能。
Deebo是一个AI调试助手,能够加速代码错误的解决过程,通过自动化调查和多线程工作流提升开发效率。
Aderyn是一个开源的Solidity智能合约静态分析工具,由Rust编写,帮助开发者和安全研究人员发现Solidity代码中的漏洞。它支持Foundry和Hardhat项目,可生成多种格式报告,并提供VSCode扩展。
Zen MCP是一个多模型AI协作开发服务器,为Claude和Gemini CLI等AI编码助手提供增强的工作流工具和跨模型上下文管理。它支持多种AI模型的无缝协作,实现代码审查、调试、重构等开发任务,并能保持对话上下文在不同工作流间的延续。
Container Use是一个开源工具,为编码代理提供容器化隔离环境,支持多代理并行开发且互不干扰。
Sail是一个旨在统一流处理、批处理和计算密集型(AI)工作负载的项目,提供了Spark SQL和Spark DataFrame API的替代方案,支持单机和分布式环境。
Supergateway是一个工具,用于将基于标准输入输出的MCP服务器转换为通过SSE或WebSocket访问的服务,方便远程调试和集成。
虚幻引擎模型上下文协议(MCP)集成的文档,帮助理解、设置和使用MCP系统。
Awesome-MCP-ZH 是一个专为中文用户打造的 MCP(模型上下文协议)资源合集,包含 MCP 的基础介绍、玩法、客户端、服务器和社区资源,帮助用户快速上手 MCP。
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
Scrapling是一个自适应网页抓取库,能自动学习网站变化并重新定位元素,支持多种抓取方式和AI集成,提供高性能解析和开发者友好体验。
BrowserTools MCP是一个强大的浏览器监控与交互工具,通过Chrome扩展和本地服务器实现AI对浏览器的智能分析与操作。
Nx Console是一个为Nx和Lerna monorepo项目提供的可视化界面工具,增强编辑器AI功能,提供项目和工作流管理。
为Nuxt/Vite应用提供MCP服务器支持,帮助模型更好地理解应用结构。
MCP Toolbox for Databases是一个开源数据库MCP服务器,专注于企业级和生产质量,简化工具开发,提供连接池、认证等复杂功能。
该项目为Notion API实现了一个MCP服务器,允许通过模型上下文协议访问和操作Notion内容,支持搜索、评论、添加页面等功能。
一个基于Playwright的MCP服务器,为LLM提供浏览器自动化能力
AWS MCP Servers是一套基于Model Context Protocol的专用服务器,提供多种AWS相关功能,包括文档检索、知识库查询、CDK最佳实践、成本分析、图像生成等,旨在通过标准化协议增强AI应用与AWS服务的集成。
一个基于MCP协议的Kubernetes集群管理服务器,支持通过命令行或聊天界面与Kubernetes集群交互,提供资源管理、Helm图表操作等功能。