在Alpha Arena 1.5赛季中,xAI的Grok4.20模型以12.11%的回报率夺冠,将1万美元在14天内增值至12,193美元,成为唯一盈利的大型语言模型。同期GPT-51和Gemini3.0分别亏损3.4%和5.7%。比赛采用无人干预规则,模型需在“苦行僧模式”(高杠杆限制)和“情境感知模式”(可查看对手持仓)下自动交易。
英伟达与香港大学联合发布Orchestrator模型,拥有8亿参数,能协调多种工具和大型语言模型解决复杂问题。该模型在工具使用基准测试中,以更低成本实现更高准确性,并能根据用户偏好智能选择工具。其训练采用名为ToolOrchestra的新强化学习框架,旨在提升小型模型的协调能力。
OpenRouter基于超100万亿标记数据研究发现,自2024年12月o1推理模型推出后,大型语言模型使用方式显著变化。开放权重模型使用增长明显,尤其在创意角色扮演和编程辅助领域,超出预期。
成立仅三年的初创公司Micro1年度经常性收入突破1亿美元,较年初的700万美元大幅增长。该公司9月完成3500万美元A轮融资,估值达5亿美元。创始人表示,正与微软等财富100强企业合作,加速大型语言模型发展。
Fogsight 是一款由大型语言模型驱动的动画引擎。
提供强大的大型语言模型和文档处理引擎,转变工作流程并赋能领先企业。
Seed-Coder 是一个开源的 8B 代码大型语言模型系列。
一种无需搜索即可激励 LLM 搜索能力的框架。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$6
$24
$2
$20
$8
$240
52
Bytedance
$1.2
$3.6
4
Trilogix1
Fara-7B是微软专门为计算机使用场景设计的高效小型语言模型,参数仅70亿,在网页操作等高级用户任务中表现出色,能与更大型的代理系统竞争。
mlx-community
本模型是基于allenai/Olmo-3-7B-Instruct转换的8位量化版本,专门为Apple MLX框架优化。它是一个70亿参数的大型语言模型,支持指令跟随和对话任务。
DevQuasar
这是 ai-sage/GigaChat3-702B-A36B-preview-bf16 模型的量化版本,旨在为大众提供免费的知识获取途径。该模型是一个大型语言模型,专注于文本生成任务。
sbintuitions
Sarashina2.2-Vision-3B是由SB Intuitions训练的日本大型视觉语言模型,基于Sarashina2.2-3B-Instruct和SigLIP图像编码器构建,具备强大的图像到文本转换能力,支持日语和英语的多模态处理。
本项目提供了cerebras/MiniMax-M2-REAP-172B-A10B模型的量化版本,致力于让知识为大众所用。这是一个1720亿参数的大型语言模型,经过优化和量化处理,旨在降低部署成本和提高推理效率。
bartowski
这是Precog-123B-v1模型的llama.cpp量化版本,提供了多种量化类型以满足不同硬件配置和使用场景的需求。该模型是一个拥有1230亿参数的大型语言模型,经过优化后可在各种硬件上高效运行。
noctrex
Aquif-3.5-Max-42B-A3B是一个420亿参数的大型语言模型,经过MXFP4_MOE量化处理,在保持高质量文本生成能力的同时优化了推理效率。该模型基于先进的混合专家架构,适用于多种自然语言处理任务。
MiniMax-M2-5bit 是基于 MiniMaxAI/MiniMax-M2 模型转换而来的 5 位量化版本,专为 MLX 框架优化。该模型是一个大型语言模型,支持文本生成任务,采用 MIT 许可证发布。
nightmedia
这是Qwen3-Next-80B-A3B-Instruct模型的MLX格式转换版本,专为在Apple Silicon设备上高效运行而优化。该模型是一个800亿参数的大型语言模型,支持文本生成任务,具有强大的对话和推理能力。
nineninesix
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型,采用两阶段管道结合大型语言模型和高效音频编解码器,实现卓越的速度和音频质量。该模型支持西班牙语,具有4亿参数,采样率为22kHz。
lefromage
这是Qwen3-Next-80B-A3B-Instruct模型的GGUF量化格式版本,由lefromage提供。该模型是一个800亿参数的大型语言模型,采用Apache 2.0许可证,支持文本生成任务。GGUF格式便于在本地设备上部署和运行。
lightonai
LightOnOCR-1B-1025是一款紧凑的端到端视觉语言模型,专门用于光学字符识别和文档理解。它在同权重级别中实现了最先进的准确率,同时比大型通用视觉语言模型更快、成本更低。
这是一个72B参数的大型语言模型量化版本,使用llama.cpp的imatrix技术进行优化量化处理,提供了多种量化级别以适应不同硬件条件,支持在LM Studio和llama.cpp等环境中运行。
这是 Tesslate/UIGEN-FX-4B-Preview 模型的量化版本,致力于通过量化技术让大型语言模型更易于部署和使用,实现'让知识为每个人所用'的理念。
stanford-oval
CHURRO是一个30亿参数的开放权重视觉语言模型,专门用于历史文档转录。它能够识别跨越22个世纪和46个语言集群的手写和印刷文本,包括历史语言和已消亡语言,在显著降低成本的条件下实现了比大型商业模型更高的准确率。
quelmap
Lightning-4b 是一款专为本地设备数据分析任务设计和训练的语言模型,可在配备16GB内存的笔记本电脑上流畅运行,无需将数据发送给大型语言模型提供商,确保数据隐私和安全。
Qwen3-Next-80B-A3B-Instruct-qx64-mlx 是 Qwen 系列的大型语言模型,专门转换为 MLX 格式用于高效文本生成。该模型具有 800 亿参数,支持多语言交互,特别针对指令跟随任务进行了优化。
unsloth
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通义千问团队开发的最新一代大型语言模型,采用创新的混合注意力机制和高稀疏专家混合架构,在保持80B总参数的同时仅激活3B参数,实现了高效的上下文建模和推理加速,原生支持262K上下文长度并可扩展至1M令牌。
这是Qwen3-Next-80B-A3B-Instruct模型的8位量化MLX格式版本,专为Apple Silicon优化的大型语言模型,支持指令跟随和对话任务
这是Qwen3-Next-80B-A3B-Instruct模型的4位量化MLX格式版本,专为Apple Silicon优化。该模型是一个80B参数的大型语言模型,支持多轮对话和指令跟随,经过量化处理后可在Apple设备上高效运行。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
Jinni是一个高效为大型语言模型提供项目上下文的工具,通过整合相关文件及其元数据,克服逐个文件读取的限制。
MCPEngine是一个生产级的Model Context Protocol (MCP)实现,为大型语言模型(LLM)提供标准化接口,支持OAuth认证、资源管理、工具调用等功能,旨在成为'LLM界的REST'框架。
LLM Context是一个帮助开发者快速将代码/文本项目内容注入大型语言模型聊天界面的工具,支持智能文件选择和多种集成方式。
一个基于Swift实现的知识图谱记忆服务器,为大型语言模型提供持久化记忆功能
Rails MCP Server是一个基于Ruby实现的Model Context Protocol服务器,为Rails项目提供与大型语言模型交互的标准接口。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过Wireshark工具捕获和处理网络数据,支持威胁检测、网络诊断和异常分析。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过集成Wireshark工具实现数据捕获、威胁检测和网络诊断。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
Alpaca MCP服务器是一个实现Alpaca交易API的模型上下文协议(MCP)服务,允许大型语言模型通过自然语言与Alpaca交易系统交互,支持股票/期权交易、投资组合管理和实时市场数据获取。
本项目构建了一个基于IBM Watsonx.ai的检索增强生成(RAG)服务器,使用ChromaDB进行向量索引,并通过模型上下文协议(MCP)暴露接口。该系统能够处理PDF文档并基于文档内容回答问题,实现了将大型语言模型与特定领域知识相结合的智能问答功能。
一个基于模型上下文协议(MCP)的服务器,通过构建代码知识图谱为大型语言模型提供TypeScript代码库的深度上下文理解。它使用AST分析解析代码,在Neo4j中构建全面的图表示,并通过语义搜索和图遍历提供智能查询能力。
MCP逻辑求解器是一个结合大型语言模型与形式化定理证明能力的强大推理系统,支持自然语言和一阶逻辑输入,通过Prover9/Mace4进行自动验证,并提供结构化推理和解释。
EOSC数据共享MCP服务器,提供HTTP接口通过搜索API和大型语言模型帮助用户查找所需数据集和工具。
Firelinks MCP服务器是一个基于Model Context Protocol的API网关,允许大型语言模型通过标准化协议与Firelinks短链接平台进行交互,提供链接管理、统计分析和域名管理等功能
JIRA MCP服务器是一个为大型语言模型提供与JIRA交互能力的中间件服务,支持JQL搜索和问题详情获取。
Azure影响报告MCP服务器是一个让大型语言模型(LLM)能够自动向Azure报告资源问题的工具。它通过自然语言处理用户请求,自动认证Azure账号,并通过管理API提交资源影响报告。
该项目通过Model Context Protocol(MCP)让大型语言模型直接理解和生成Max音频处理软件中的音效模块,支持解释、修改和创建音效模块,并提供与LLM的交互界面。
一个为大型语言模型提供GraphQL模式探索服务的MCP服务器,支持加载、查询和分析GraphQL模式文件。