微博AI部门推出开源大模型VibeThinker-1.5B,拥有15亿参数。该模型基于阿里Qwen2.5-Math-1.5B优化,在数学和代码任务表现优异。现已在Hugging Face等平台免费开放,遵循MIT许可证,支持商业使用。
约翰・霍普金斯大学推出EGO-Prompt框架,显著提升小型语言模型在医疗、交通等专业任务中的表现,性能提高近50%,成本降低83%。该框架通过优化提示词设计,融入专业知识,使小模型媲美大型推理模型,解决了专业领域AI应用的关键挑战。
Meta与爱丁堡大学合作开发CRV技术,通过分析大型语言模型内部推理电路,预测其推理正确性并修复错误。该方法构建模型激活计算图,高精度检测推理错误,提升AI可靠性。
苹果公司正加紧招聘推理模型领域专家,以解决其研究揭示的大型语言模型重大缺陷。招聘聚焦开发更准确高效的新型架构,重点强化推理、规划、工具使用和基于代理的LLM能力。
Fogsight 是一款由大型语言模型驱动的动画引擎。
提供强大的大型语言模型和文档处理引擎,转变工作流程并赋能领先企业。
Seed-Coder 是一个开源的 8B 代码大型语言模型系列。
一种无需搜索即可激励 LLM 搜索能力的框架。
alibaba
$0.72
输入tokens/百万
$2.16
输出tokens/百万
128k
上下文长度
nvidia
-
meta
$1.44
deepseek
$1.94
$7.92
mistral
32.8k
$0.22
liquidai
32k
8.2k
$0.14
noctrex
Aquif-3.5-Max-42B-A3B是一个420亿参数的大型语言模型,经过MXFP4_MOE量化处理,在保持高质量文本生成能力的同时优化了推理效率。该模型基于先进的混合专家架构,适用于多种自然语言处理任务。
mlx-community
MiniMax-M2-5bit 是基于 MiniMaxAI/MiniMax-M2 模型转换而来的 5 位量化版本,专为 MLX 框架优化。该模型是一个大型语言模型,支持文本生成任务,采用 MIT 许可证发布。
nightmedia
这是Qwen3-Next-80B-A3B-Instruct模型的MLX格式转换版本,专为在Apple Silicon设备上高效运行而优化。该模型是一个800亿参数的大型语言模型,支持文本生成任务,具有强大的对话和推理能力。
nineninesix
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型,采用两阶段管道结合大型语言模型和高效音频编解码器,实现卓越的速度和音频质量。该模型支持西班牙语,具有4亿参数,采样率为22kHz。
lefromage
这是Qwen3-Next-80B-A3B-Instruct模型的GGUF量化格式版本,由lefromage提供。该模型是一个800亿参数的大型语言模型,采用Apache 2.0许可证,支持文本生成任务。GGUF格式便于在本地设备上部署和运行。
lightonai
LightOnOCR-1B-1025是一款紧凑的端到端视觉语言模型,专门用于光学字符识别和文档理解。它在同权重级别中实现了最先进的准确率,同时比大型通用视觉语言模型更快、成本更低。
bartowski
这是一个72B参数的大型语言模型量化版本,使用llama.cpp的imatrix技术进行优化量化处理,提供了多种量化级别以适应不同硬件条件,支持在LM Studio和llama.cpp等环境中运行。
DevQuasar
这是 Tesslate/UIGEN-FX-4B-Preview 模型的量化版本,致力于通过量化技术让大型语言模型更易于部署和使用,实现'让知识为每个人所用'的理念。
stanford-oval
CHURRO是一个30亿参数的开放权重视觉语言模型,专门用于历史文档转录。它能够识别跨越22个世纪和46个语言集群的手写和印刷文本,包括历史语言和已消亡语言,在显著降低成本的条件下实现了比大型商业模型更高的准确率。
quelmap
Lightning-4b 是一款专为本地设备数据分析任务设计和训练的语言模型,可在配备16GB内存的笔记本电脑上流畅运行,无需将数据发送给大型语言模型提供商,确保数据隐私和安全。
Qwen3-Next-80B-A3B-Instruct-qx64-mlx 是 Qwen 系列的大型语言模型,专门转换为 MLX 格式用于高效文本生成。该模型具有 800 亿参数,支持多语言交互,特别针对指令跟随任务进行了优化。
unsloth
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通义千问团队开发的最新一代大型语言模型,采用创新的混合注意力机制和高稀疏专家混合架构,在保持80B总参数的同时仅激活3B参数,实现了高效的上下文建模和推理加速,原生支持262K上下文长度并可扩展至1M令牌。
这是Qwen3-Next-80B-A3B-Instruct模型的8位量化MLX格式版本,专为Apple Silicon优化的大型语言模型,支持指令跟随和对话任务
这是Qwen3-Next-80B-A3B-Instruct模型的4位量化MLX格式版本,专为Apple Silicon优化。该模型是一个80B参数的大型语言模型,支持多轮对话和指令跟随,经过量化处理后可在Apple设备上高效运行。
这是一个基于Huihui-Hunyuan-MT-Chimera-7B模型的量化版本,旨在通过量化技术让大型语言模型更易于部署和使用,使知识为每个人所用。
这是基于NousResearch/Hermes-4-14B模型转换的8位量化MLX格式版本,专门为Apple Silicon优化,支持高效的本地推理。该模型是一个140亿参数的大型语言模型,专注于指令遵循、推理和对话任务。
cpatonn
NVIDIA Nemotron Nano 12B v2是由NVIDIA从头训练的大型语言模型,专为推理和非推理任务设计。采用混合Mamba2-Transformer架构,支持多语言,具备可控推理能力,可根据用户需求生成推理过程或直接给出答案。
这是NVIDIA Nemotron Nano 9B v2模型的4位量化版本,专为Apple Silicon优化,使用MLX框架转换。该模型是一个9B参数的大型语言模型,支持多语言文本生成任务。
QuantTrio
DeepSeek-V3.1是基于DeepSeek-V3.1-Base进行后训练的大型语言模型,具有128K上下文长度,支持混合思维模式、智能工具调用和代码代理功能。该模型在多项基准测试中表现出色,特别在数学推理、代码生成和搜索代理任务上有显著提升。
lmstudio-community
Seed-OSS-36B-Instruct是由ByteDance-Seed开发的大型语言模型,参数量达360亿,采用Apache-2.0开源许可证。该模型基于transformers库构建,支持vllm和mlx技术优化,特别针对苹果Silicon芯片进行了8位量化处理,提供高效的文本生成能力。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
Jinni是一个高效为大型语言模型提供项目上下文的工具,通过整合相关文件及其元数据,克服逐个文件读取的限制。
MCPEngine是一个生产级的Model Context Protocol (MCP)实现,为大型语言模型(LLM)提供标准化接口,支持OAuth认证、资源管理、工具调用等功能,旨在成为'LLM界的REST'框架。
LLM Context是一个帮助开发者快速将代码/文本项目内容注入大型语言模型聊天界面的工具,支持智能文件选择和多种集成方式。
一个基于Swift实现的知识图谱记忆服务器,为大型语言模型提供持久化记忆功能
Rails MCP Server是一个基于Ruby实现的Model Context Protocol服务器,为Rails项目提供与大型语言模型交互的标准接口。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过Wireshark工具捕获和处理网络数据,支持威胁检测、网络诊断和异常分析。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过集成Wireshark工具实现数据捕获、威胁检测和网络诊断。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
Alpaca MCP服务器是一个实现Alpaca交易API的模型上下文协议(MCP)服务,允许大型语言模型通过自然语言与Alpaca交易系统交互,支持股票/期权交易、投资组合管理和实时市场数据获取。
一个提供与ClickUp工作空间无缝集成的MCP服务器,允许大型语言模型通过多种工具管理任务、文档和自定义字段。
MCP逻辑求解器是一个结合大型语言模型与形式化定理证明能力的强大推理系统,支持自然语言和一阶逻辑输入,通过Prover9/Mace4进行自动验证,并提供结构化推理和解释。
该项目通过Model Context Protocol(MCP)让大型语言模型直接理解和生成Max音频处理软件中的音效模块,支持解释、修改和创建音效模块,并提供与LLM的交互界面。
Azure影响报告MCP服务器是一个让大型语言模型(LLM)能够自动向Azure报告资源问题的工具。它通过自然语言处理用户请求,自动认证Azure账号,并通过管理API提交资源影响报告。
一个为大型语言模型提供GraphQL模式探索服务的MCP服务器,支持加载、查询和分析GraphQL模式文件。
Firelinks MCP服务器是一个基于Model Context Protocol的API网关,允许大型语言模型通过标准化协议与Firelinks短链接平台进行交互,提供链接管理、统计分析和域名管理等功能
Unity MCP服务器是一个基于C#的模型上下文协议(MCP)服务,用于连接Unity编辑器与外部大型语言模型(LLM)或云端AI代理,实现实时自动化与智能交互。
EOSC数据共享MCP服务器,提供HTTP接口通过搜索API和大型语言模型帮助用户查找所需数据集和工具。
JIRA MCP服务器是一个为大型语言模型提供与JIRA交互能力的中间件服务,支持JQL搜索和问题详情获取。