苹果M4芯片普及推动本地AI发展,开发者jola在24GB内存的M4 MacBook Pro上成功部署本地AI工作流。测试显示,优化后的Qwen 3.5-9B模型生成速度达每秒40 tokens,为离线办公和私密开发提供高效方案。选型上,9B模型被认为是本地运行大语言模型的最优解,平衡了性能与资源需求。
在第二十八届北京科博会上,西藏大学研发的“DeepZang”大模型成为焦点,它能“听懂”藏语并以藏语思维创作。这标志着AI在多语言处理上的突破,加速了少数民族语言融入全球数字化浪潮,解决了以往大模型对藏语等语言处理不足的问题。
Anthropic公司发布新型自然语言自编码器(NLA),能将语言模型Claude内部的数字“激活”直接转化为人类可读文本,解决了以往难以理解模型内部状态的问题。该技术为模型可解释性打开新大门,使AI的“思考活动”更透明。
剑桥大学数学教授、菲尔兹奖得主 Timothy Gowers 分享使用未公开的 ChatGPT 5.5 Pro 进行数学研究的经历。该AI模型在一小时内解决了一个组合数学开放性问题,引发学术界对AI数学能力的关注。Gowers指出,大语言模型在数学领域的应用已从早期只能寻找已知信息,发展到能解决开放性问题。
开源LLM路由器,路由请求到最具成本效益模型,节省70% AI令牌成本。
用代码记录财务,借助AI洞察,让会计透明、可脚本化,适配大语言模型时代。
全栈平台,内置身份验证、数据库和LLM集成,助您10倍速交付AI应用。
GLM-5是智谱AI第五代大模型,7450亿参数,具多项前沿能力,现已开放。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
bartowski
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
DevQuasar
这是 ai-sage/GigaChat3-702B-A36B-preview-bf16 模型的量化版本,旨在为大众提供免费的知识获取途径。该模型是一个大型语言模型,专注于文本生成任务。
Mungert
PokeeResearch-7B是由Pokee AI开发的70亿参数深度研究代理模型,结合了AI反馈强化学习(RLAIF)和强大的推理框架,能够在工具增强的大语言模型中实现可靠、对齐和可扩展的研究级推理,适用于复杂的多步骤研究工作流程。
nineninesix
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型,采用两阶段管道结合大型语言模型和高效音频编解码器,实现卓越的速度和音频质量。该模型支持西班牙语,具有4亿参数,采样率为22kHz。
KaniTTS是一款专为实时对话式人工智能应用优化的高速、高保真阿拉伯语文本转语音模型。它采用两阶段流水线架构,结合大语言模型与高效音频编解码器,实现卓越的速度和音频质量,能够满足对话式AI、无障碍辅助、研究等多领域的语音合成需求。
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型,通过独特的两阶段架构结合大语言模型与高效音频编解码器,实现低延迟与高质量语音合成,实时因子低至0.2,比实时速度快5倍。
unsloth
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,提供70亿和80亿两种参数规模。该模型支持超过1000种语言,使用完全合规且开放的训练数据,性能可与闭源模型相媲美。Apertus在15T标记上进行预训练,采用分阶段课程训练方法,支持长达65,536个标记的上下文长度。
redponike
Apertus是一款由瑞士AI开发的全开放多语言大语言模型,参数规模达80亿和700亿,支持超过1000种语言和长上下文处理,仅使用完全合规的开放训练数据,性能可与闭源模型相媲美。
GLM-4.6是智谱AI开发的新一代大语言模型,相比GLM-4.5在上下文处理、编码能力和推理性能方面有显著提升。该模型支持200K上下文长度,在多个公开基准测试中表现出色,特别在代码生成、推理和代理任务方面具有竞争优势。
KaniTTS是一款专为实时对话式AI应用优化的高速、高保真文本转语音模型。它采用两阶段流水线架构,结合大语言模型和高效音频编解码器,实现了卓越的速度和音频质量,支持多种语言并适用于边缘/服务器部署。
Sunbird
Sunflower-32B是由Sunbird AI开发的多语言大语言模型,专门针对乌干达地区语言优化。基于Qwen 3-32B架构构建,支持31种乌干达语言及英语的翻译和文本生成任务,在乌干达语言翻译准确率方面表现优异。
Sunflower-14B是由Sunbird AI开发的多语言大语言模型,专门针对乌干达语言设计。该模型基于Qwen 3-14B架构构建,支持31种乌干达语言以及英语的翻译和文本生成任务,在多项评估中表现出色。
neuphonic
NeuTTS Air是世界上首个具备即时语音克隆功能的超逼真、端侧文本转语音(TTS)语言模型。基于0.5B参数的大语言模型骨干构建,能为本地设备带来自然的语音、实时性能、内置安全性和说话人克隆功能。
NeuTTS Air是全球首个具有即时语音克隆功能的超逼真设备端文本转语音模型,基于0.5B参数的大语言模型骨干构建,能在本地设备上实现自然语音生成、实时性能和说话人克隆功能。
geoffmunn
这是Qwen/Qwen3-0.6B语言模型的GGUF量化版本,一个拥有6亿参数的紧凑大语言模型,专为在低资源设备上进行超快速推理而设计。支持llama.cpp、LM Studio、OpenWebUI和GPT4All等框架,可在任何地方离线使用私有AI。
mradermacher
ConfTuner-Ministral是基于Mistral架构的量化大语言模型,专门针对可信赖AI场景进行微调,支持文本生成和置信度估计功能。该模型提供了多种量化版本,适用于不同资源约束环境。
NeuTTS Air是世界上首个具备即时语音克隆功能的超逼真、设备端文本转语音(TTS)语言模型。基于0.5B大语言模型骨干网络构建,能为本地设备带来自然的语音、实时性能、内置安全功能和说话人克隆能力。
本项目提供腾讯混元-MT-7B大语言模型的量化版本,通过模型压缩技术降低计算和存储需求,致力于让知识为每个人所用,使高性能AI模型更加普及和易用。
ducklingcodehouse
这是一个专注于芬兰语牙科医学的对话式AI助手,经过LoRA微调的大语言模型,能够针对牙科咨询问题生成结构化的临床回复,分为背景、评估和建议三个部分。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
Unity MCP服务器是一个基于C#的模型上下文协议(MCP)服务,用于连接Unity编辑器与外部大型语言模型(LLM)或云端AI代理,实现实时自动化与智能交互。
这是一个基于MCP协议的代码执行服务器原型,结合大型语言模型的代码生成能力和MCP工具集成,使AI代理能够在隔离沙箱中运行Python代码并调用外部工具。
AI驱动的图表与原型绘制MCP服务器,集成多种大语言模型,支持根据自然语言描述智能生成多种风格的draw.io格式图表和HTML交互式产品原型。
基于Spring AI MCP框架的Excel文件读写服务,支持与大语言模型集成实现动态交互
OLS MCP服务器是一个为大型语言模型提供本体查询服务的工具,通过连接EBI本体查询服务API,帮助AI助手准确获取生物医学领域的本体术语、概念和层次结构。
Firebolt MCP Server是一个实现模型上下文协议的服务,可将LLM(大型语言模型)与Firebolt数据仓库连接,使AI助手能够直接查询数据、生成洞察并访问文档资源。
该项目是一个基于Model Context Protocol (MCP)标准的文档处理服务器,通过构建向量数据库和MCP接口,使AI助手能够访问外部文档资源,突破大语言模型的知识限制。项目包含文档处理流水线和MCP服务端两大组件,支持多种嵌入模型和文件格式,可应用于最新技术文档查询、私有代码库理解等场景。
Checkstyle MCP Server是一个连接大语言模型与本地代码质量工具的中间件,支持Go、Java、Lua等语言的代码检查与格式化,并提供项目配置管理和AI自我纠错功能。
Unity-MCP是一个连接大型语言模型(LLM)与Unity编辑器的桥梁工具,通过暴露Unity编辑器功能给AI客户端,实现AI驱动的自动化开发流程。它支持自定义工具扩展,目前提供游戏对象管理、场景操作、资产处理等核心功能,主要适用于Unity编辑器环境。
CTX是一款连接代码库与大型语言模型(LLM)的工具,通过自动化生成结构化上下文文件,解决AI开发中代码上下文传递效率低下的问题。支持从代码文件、Git仓库、网页等多种来源收集信息,并可通过MCP服务器直接为AI助手提供项目上下文。
Wanaku MCP路由器是一个基于模型上下文协议(MCP)的AI应用路由器,旨在标准化应用程序向大型语言模型(LLM)提供上下文的方式。
该项目集成Graphistry的GPU加速图可视化平台与模型控制协议(MCP),为AI助手和大型语言模型提供先进的图分析能力,支持多种数据格式和网络分析功能。
Okta MCP Server 是一个基于 Model Context Protocol 的服务器,允许大型语言模型和AI代理通过自然语言指令管理Okta组织,支持用户、群组、应用程序、策略和日志等管理操作。
该项目实现了一个ClickHouse的MCP服务器,用于将ClickHouse数据库与大型语言模型(LLMs)等AI应用无缝集成,支持查询数据库、获取表结构等功能。
40ants-lisp-dev-mcp 是一个为大型语言模型(LLM)提供与运行中的Lisp镜像交互工具的MCP服务器。它支持通过stdio或HTTP流模式运行,允许LLM调用Lisp函数、获取文档、评估代码等,便于在Lisp开发环境中进行AI辅助编程。
OmniLLM是一个MCP服务器,作为Claude与其他大型语言模型(如ChatGPT、Azure OpenAI和Google Gemini)之间的桥梁,提供统一的AI访问接口。
MCP代码索引器是一个专为AI大语言模型设计的智能代码检索工具,通过语义理解和向量化索引提升代码处理效率和准确性,支持代码分析、质量评估和依赖管理等功能。