新研究警告:大语言模型持续接触无意义网络内容可能导致性能显著下降,推理能力和自信心受损。多所美国大学团队提出“LLM脑衰退假说”,类比人类过度接触无脑内容造成的认知损害。
苹果公司正加紧招聘推理模型领域专家,以解决其研究揭示的大型语言模型重大缺陷。招聘聚焦开发更准确高效的新型架构,重点强化推理、规划、工具使用和基于代理的LLM能力。
DeepSeek发布创新OCR模型DeepSeek-OCR,引入"视觉记忆压缩"机制,模仿人类视觉记忆方式,将长文本信息压缩到图像中处理。这一突破性技术旨在解决大型语言模型处理超长上下文时计算资源激增的难题,在图像文档解析方面达到顶级性能,让AI实现高效"看图阅读"。
Exa Labs推出Exa Code,专为优化Coding Agent设计。该工具索引超10亿文档、GitHub仓库和StackOverflow内容,提供精准代码上下文,显著提升LLM代码生成准确性。在代码幻觉评估中表现卓越,超越所有现有网络搜索工具。目前免费开源,引发开发者广泛关注。其核心创新在于突破传统搜索框架,专注于代码场景的高效支持。
企业级 LLM 平台,提供统一 API 和智能路由。
使用Scorecard简单构建和测试LLM应用,提供可预测且不断改进的AI体验。
提供高质量 AI 接口服务,支持多种 AI 模型,安全稳定。
以数据 + 大模型驱动的智能合同平台,提升合同工作效率。
nvidia
-
输入tokens/百万
输出tokens/百万
128k
上下文长度
deepseek
$3.96
$15.77
4.1k
RESMP-DEV
这是使用LLM Compressor和NVFP4格式对Qwen/Qwen3-Next-80B-A3B-Thinking进行量化后的版本,采用FP4微缩放技术,在保持高精度的同时大幅减少模型存储和计算需求。
llm-semantic-router
这是一个基于bert-base-uncased微调的LoRA模型,专门用于检测文本中的个人身份信息(PII)。该模型采用低秩适应技术优化,是semantic-router项目的一部分,支持Python和Rust环境使用。
基于bert-base-uncased通过LoRA(低秩自适应)技术微调的意图分类模型,可将文本分类为商业、技术、科学等类别,是语义路由器项目的一部分,针对Rust中的Candle框架进行了优化。
基于BERT基础无大小写模型,使用LoRA(低秩自适应)技术进行微调的意图分类模型,可将文本分类为商业、技术、科学等类别,是语义路由器项目的一部分,针对Rust语言中的Candle框架进行了优化。
DevQuasar
这是Qwen/Qwen3-Next-80B-A3B-Instruct的量化版本,基于llmcompressor工具实现,致力于让知识为每个人所用,推动知识的广泛传播。
这是LLM360/K2-Think模型的量化版本,致力于让知识更加自由地传播,秉持'让知识为每个人所用'的理念。该版本通过量化技术优化了模型大小和推理效率。
llmat
Apertus-8B-Instruct-2509-NVFP4是基于swiss-ai/Apertus-8B-Instruct-2509的NVFP4量化版本,通过llmcompressor工具生成。该模型在保持性能的同时显著减少了存储空间和计算资源需求,提升了推理效率。
parthmodi152
这是一个基于Qwen2.5-7B-Instruct模型使用Unsloth技术进行微调的优化版本,实现了2倍的训练加速,专注于文本生成任务。
sugoitoolkit
Sugoi LLM 32B Ultra是基于Qwen2.5-32B-Instruct优化的高性能大语言模型,充分释放了前作Sugoi 32B模型的全部潜力。该模型采用GGUF格式,专注于翻译任务,具有出色的多语言处理能力。
TildeAI
TildeOpen LLM 是一个开源的基础语言模型,专门为服务代表性不足的北欧和东欧语言而设计。该模型由欧盟委员会资助,在LUMI超级计算机上训练,拥有300亿参数,解决了19种重点语言使用者在现有AI系统中面临的性能差距问题。
ramblingpolymath
Qwen3-30B-A3B-Thinking-2507的W4A16量化版本,使用LLM-Compressor进行4位权重和16位激活量化。相比FP16版本,内存占用减少约75%,在支持的硬件上实现更快的推理速度。该模型具有出色的推理能力、工具调用能力和长上下文支持。
这是基于LLM-Compressor对Qwen3-30B-A3B-Instruct-2507进行W8A8(8位权重和激活值)量化的版本。相比FP16版本,内存占用减少约50%,在支持的硬件上实现更快的推理速度,特别适合Ampere及更旧的GPU架构。
skt
A.X 3.1 Light 是一款专为韩语理解和企业部署优化的轻量级大语言模型(LLM),由SKT完全自主研发。
Mungert
xLAM-2-3b-fc-r GGUF模型是基于特定量化方法生成的文本生成模型,专注于函数调用、LLM代理和工具使用场景。
iapp
Chinda LLM 4B是iApp Technology推出的前沿泰语模型,基于Qwen3-4B架构构建,为泰国AI生态系统带来先进的思考能力。
llm-jp
由日本国立情报学研究所开发的大语言模型,基于LLM-jp-3构建,通过指令预训练技术显著提升了遵循指令的能力。
LLM-jp-3.1-1.8b是由日本国立情报学研究所开发的大语言模型,基于LLM-jp-3系列,融入指令预训练增强指令遵循能力。
LLM-jp-3.1-13b-instruct4是由日本国立情报学研究所开发的大语言模型,通过指令预训练显著提升了指令遵循能力,支持日语和英语等多种语言。
unsloth
Devstral是一款专为软件工程任务设计的智能LLM,由Mistral AI和All Hands AI合作开发,擅长代码探索、多文件编辑和驱动软件工程代理。
Spark-TTS是一款基于大型语言模型(LLM)的高效文本转语音系统,支持中英文双语合成和零样本语音克隆。
一个基于Playwright的MCP服务器,为LLM提供浏览器自动化能力
Eino是一个专为Golang设计的LLM应用开发框架,旨在通过简洁、可扩展、可靠且高效的组件抽象和编排能力,简化AI应用开发流程。它提供丰富的组件库、强大的图形编排功能、完整的流处理支持以及高度可扩展的切面机制,覆盖从开发到部署的全周期工具链。
mcpo是一个简单易用的代理工具,可将任何MCP工具快速转换为兼容OpenAPI的HTTP服务器,使其能够通过标准RESTful接口访问,方便与LLM代理和应用集成。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
WhatsApp MCP服务器是一个通过WhatsApp网页多设备API连接个人账户的工具,支持消息搜索、发送及多媒体处理,并与Claude等LLM集成。
Opik是一个开源的LLM评估框架,支持追踪、评估和监控LLM应用,帮助开发者构建更高效、更经济的LLM系统。
Supermemory是一个AI驱动的记忆引擎,旨在通过整合个人数据为LLM提供上下文知识,实现信息的智能管理和检索。
Playwright MCP是一个基于Playwright的浏览器自动化服务器,通过结构化数据而非像素输入实现LLM与网页的交互。
Serena是一个强大的开源编码代理工具包,能够将LLM转化为可直接在代码库上工作的全功能代理。它提供类似IDE的语义代码检索和编辑工具,支持多种编程语言,并可通过MCP协议或Agno框架与多种LLM集成。
Notion MCP Server是一个连接Notion API与LLM的中间件服务,通过Markdown转换优化交互效率。
MCP Go 是一个 Go 语言实现的模型上下文协议(MCP)服务端框架,用于连接 LLM 应用与外部数据源和工具。它提供了资源管理、工具调用、提示模板等核心功能,支持会话管理和中间件扩展。
Context7 MCP是一个为AI编程助手提供实时、版本特定文档和代码示例的服务,通过Model Context Protocol直接集成到提示中,解决LLM使用过时信息的问题。
Notte是一个开源的全栈网络AI代理框架,提供浏览器会话、自动化LLM驱动的代理、网页观察与操作、凭证管理等功能,旨在将互联网转化为代理友好的环境,并通过自然语言描述网站结构,降低LLM的认知负担。
MCP LLMS-TXT文档服务器是一个开源工具,允许开发者通过MCP协议控制IDE和应用程序访问llms.txt文档资源。
mcp-get是一个命令行工具,用于发现、安装和管理MCP服务器,简化LLM与外部数据源的连接。
这是一个关于Web3 Model Context Protocol (MCP) 服务器的精选列表,涵盖了链交互、交易、DeFi、市场数据、工具和社交等多个类别。MCP是一个开放协议,标准化了应用程序如何向LLM提供上下文,类似于AI应用程序的USB-C端口。DeMCP是第一个去中心化的MCP网络,专注于为代理提供自研和开源的MCP服务,支持加密支付,并结合TEE和区块链注册表重新定义了MCP的安全性和可靠性。
DuckDuckGo搜索MCP服务器,为Claude等LLM提供网页搜索和内容抓取服务
MCP MongoDB服务器是一个模型上下文协议服务,允许LLM与MongoDB数据库交互,提供集合模式检查、查询执行和智能ID处理等功能,支持只读模式和安全配置。
Nexus是一个AI工具聚合网关,支持连接多个MCP服务器和LLM提供商,通过统一端点提供工具搜索、执行和模型路由功能,支持安全认证和速率限制。
Claude Debugs For You是一个VS Code扩展,通过MCP服务器实现与LLM(如Claude)的交互式代码调试。