Anthropic即将发布中端模型Claude Sonnet5,主打高性价比,旨在以中端价格提供旗舰性能,可能重塑大型语言模型市场格局。
谷歌CEO承认对AI系统运作机制不完全掌控,揭示AI黑箱谜团。大型语言模型通过海量数据训练展现出“涌现行为”,如谷歌PaLM模型仅少量数据即可处理孟加拉语翻译,体现AI从训练到“自学”的跃迁。
维基百科母公司Wikimedia基金会与亚马逊、Meta及Perplexity达成战略合作,通过付费接口提供高质量数据,用于训练大型语言模型,确保数据真实性,替代传统网络爬虫模式。
Meta计划于2026年上半年发起AI全面反攻,由首席AI官Alexandr Wang领导,将推出多款下一代智能模型。核心包括统一图像与视频生成理解的多模态模型Mango,以及下一代大型语言模型Av。
Fogsight 是一款由大型语言模型驱动的动画引擎。
提供强大的大型语言模型和文档处理引擎,转变工作流程并赋能领先企业。
Seed-Coder 是一个开源的 8B 代码大型语言模型系列。
一种无需搜索即可激励 LLM 搜索能力的框架。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
$8
$240
52
Bytedance
$1.2
$3.6
4
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
Trilogix1
Fara-7B是微软专门为计算机使用场景设计的高效小型语言模型,参数仅70亿,在网页操作等高级用户任务中表现出色,能与更大型的代理系统竞争。
该模型是 Kimi-Linear-48B-A3B-Instruct 的 MLX 格式转换版本,专为苹果 Mac Studio 等 Apple Silicon 设备优化。它是一个 480 亿参数的大型语言模型,支持指令跟随,适用于本地推理和对话任务。
本模型是基于allenai/Olmo-3-7B-Instruct转换的8位量化版本,专门为Apple MLX框架优化。它是一个70亿参数的大型语言模型,支持指令跟随和对话任务。
DevQuasar
这是 ai-sage/GigaChat3-702B-A36B-preview-bf16 模型的量化版本,旨在为大众提供免费的知识获取途径。该模型是一个大型语言模型,专注于文本生成任务。
sbintuitions
Sarashina2.2-Vision-3B是由SB Intuitions训练的日本大型视觉语言模型,基于Sarashina2.2-3B-Instruct和SigLIP图像编码器构建,具备强大的图像到文本转换能力,支持日语和英语的多模态处理。
本项目提供了cerebras/MiniMax-M2-REAP-172B-A10B模型的量化版本,致力于让知识为大众所用。这是一个1720亿参数的大型语言模型,经过优化和量化处理,旨在降低部署成本和提高推理效率。
这是Precog-123B-v1模型的llama.cpp量化版本,提供了多种量化类型以满足不同硬件配置和使用场景的需求。该模型是一个拥有1230亿参数的大型语言模型,经过优化后可在各种硬件上高效运行。
noctrex
Aquif-3.5-Max-42B-A3B是一个420亿参数的大型语言模型,经过MXFP4_MOE量化处理,在保持高质量文本生成能力的同时优化了推理效率。该模型基于先进的混合专家架构,适用于多种自然语言处理任务。
MiniMax-M2-5bit 是基于 MiniMaxAI/MiniMax-M2 模型转换而来的 5 位量化版本,专为 MLX 框架优化。该模型是一个大型语言模型,支持文本生成任务,采用 MIT 许可证发布。
nightmedia
这是Qwen3-Next-80B-A3B-Instruct模型的MLX格式转换版本,专为在Apple Silicon设备上高效运行而优化。该模型是一个800亿参数的大型语言模型,支持文本生成任务,具有强大的对话和推理能力。
nineninesix
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型,采用两阶段管道结合大型语言模型和高效音频编解码器,实现卓越的速度和音频质量。该模型支持西班牙语,具有4亿参数,采样率为22kHz。
lefromage
这是Qwen3-Next-80B-A3B-Instruct模型的GGUF量化格式版本,由lefromage提供。该模型是一个800亿参数的大型语言模型,采用Apache 2.0许可证,支持文本生成任务。GGUF格式便于在本地设备上部署和运行。
lightonai
LightOnOCR-1B-1025是一款紧凑的端到端视觉语言模型,专门用于光学字符识别和文档理解。它在同权重级别中实现了最先进的准确率,同时比大型通用视觉语言模型更快、成本更低。
这是一个72B参数的大型语言模型量化版本,使用llama.cpp的imatrix技术进行优化量化处理,提供了多种量化级别以适应不同硬件条件,支持在LM Studio和llama.cpp等环境中运行。
这是 Tesslate/UIGEN-FX-4B-Preview 模型的量化版本,致力于通过量化技术让大型语言模型更易于部署和使用,实现'让知识为每个人所用'的理念。
stanford-oval
CHURRO是一个30亿参数的开放权重视觉语言模型,专门用于历史文档转录。它能够识别跨越22个世纪和46个语言集群的手写和印刷文本,包括历史语言和已消亡语言,在显著降低成本的条件下实现了比大型商业模型更高的准确率。
quelmap
Lightning-4b 是一款专为本地设备数据分析任务设计和训练的语言模型,可在配备16GB内存的笔记本电脑上流畅运行,无需将数据发送给大型语言模型提供商,确保数据隐私和安全。
Qwen3-Next-80B-A3B-Instruct-qx64-mlx 是 Qwen 系列的大型语言模型,专门转换为 MLX 格式用于高效文本生成。该模型具有 800 亿参数,支持多语言交互,特别针对指令跟随任务进行了优化。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
Jinni是一个高效为大型语言模型提供项目上下文的工具,通过整合相关文件及其元数据,克服逐个文件读取的限制。
MCPEngine是一个生产级的Model Context Protocol (MCP)实现,为大型语言模型(LLM)提供标准化接口,支持OAuth认证、资源管理、工具调用等功能,旨在成为'LLM界的REST'框架。
LLM Context是一个帮助开发者快速将代码/文本项目内容注入大型语言模型聊天界面的工具,支持智能文件选择和多种集成方式。
一个基于Swift实现的知识图谱记忆服务器,为大型语言模型提供持久化记忆功能
Rails MCP Server是一个基于Ruby实现的Model Context Protocol服务器,为Rails项目提供与大型语言模型交互的标准接口。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过Wireshark工具捕获和处理网络数据,支持威胁检测、网络诊断和异常分析。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过集成Wireshark工具实现数据捕获、威胁检测和网络诊断。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
Alpaca MCP服务器是一个实现Alpaca交易API的模型上下文协议(MCP)服务,允许大型语言模型通过自然语言与Alpaca交易系统交互,支持股票/期权交易、投资组合管理和实时市场数据获取。
Azure影响报告MCP服务器是一个让大型语言模型(LLM)能够自动向Azure报告资源问题的工具。它通过自然语言处理用户请求,自动认证Azure账号,并通过管理API提交资源影响报告。
本项目构建了一个基于IBM Watsonx.ai的检索增强生成(RAG)服务器,使用ChromaDB进行向量索引,并通过模型上下文协议(MCP)暴露接口。该系统能够处理PDF文档并基于文档内容回答问题,实现了将大型语言模型与特定领域知识相结合的智能问答功能。
Firelinks MCP服务器是一个基于Model Context Protocol的API网关,允许大型语言模型通过标准化协议与Firelinks短链接平台进行交互,提供链接管理、统计分析和域名管理等功能
EOSC数据共享MCP服务器,提供HTTP接口通过搜索API和大型语言模型帮助用户查找所需数据集和工具。
一个为大型语言模型提供GraphQL模式探索服务的MCP服务器,支持加载、查询和分析GraphQL模式文件。
MCP逻辑求解器是一个结合大型语言模型与形式化定理证明能力的强大推理系统,支持自然语言和一阶逻辑输入,通过Prover9/Mace4进行自动验证,并提供结构化推理和解释。
这是一个基于MCP协议的代码执行服务器原型,结合大型语言模型的代码生成能力和MCP工具集成,使AI代理能够在隔离沙箱中运行Python代码并调用外部工具。
JIRA MCP服务器是一个为大型语言模型提供与JIRA交互能力的中间件服务,支持JQL搜索和问题详情获取。
一个提供与ClickUp工作空间无缝集成的MCP服务器,允许大型语言模型通过多种工具管理任务、文档和自定义字段。