WitNote是一款完全离线的AI笔记工具,由独立开发者推出,旨在解决用户对在线AI工具隐私和订阅费用的担忧。它支持Windows和macOS平台,允许用户在本地使用大语言模型处理笔记,无需联网,从而避免数据泄露和月费负担。用户只需下载并运行即可使用。
近日,开源项目BrowserUse发布自研大语言模型BU-30B-A3B-Preview,被誉为网页代理领域新标杆。该模型采用混合专家(MoE)架构,总参数达300亿,但推理时仅激活部分参数,兼顾强大性能与轻量化运行,显著降低了AI浏览器操作的成本与门槛。
蓝色光标与字节跳动豆包大模型达成深度合作,将整合其文本生成、多轮对话等能力,加速AI在营销内容创作与自动化领域的应用。
Meta计划于2026年上半年发起AI全面反攻,由首席AI官Alexandr Wang领导,将推出多款下一代智能模型。核心包括统一图像与视频生成理解的多模态模型Mango,以及下一代大型语言模型Av。
与LLaMA-Factory官方合作,一站式低代码大模型微调平台,支持超百种模型。
一站式大模型 API 聚合管理平台,支持多种 AI 模型。
开源平台,提供LLM应用的提示管理、评估和可观测性工具。
Google DeepMind旗舰多模态AI,1M上下文,具备博士级推理与高级编码能力
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
Bytedance
$1.2
$3.6
4
mradermacher
这是一个专注于网络安全领域的20B参数开源大语言模型,基于GPT-OSS架构,并融合了多个网络安全指令数据集进行微调。模型提供了多种量化版本,便于在资源受限的环境中部署,可用于生成网络安全相关的文本、代码和分析报告。
bartowski
这是对TheDrummer的Magidonia-24B-v4.3大语言模型进行量化处理后的版本。通过使用llama.cpp的imatrix量化技术,生成了从BF16到IQ2_XS等多种精度的GGUF格式文件,旨在不同硬件条件下(尤其是资源受限环境)更高效地运行模型,同时尽可能保持模型性能。
本项目是TheDrummer的Cydonia-24B-v4.3模型的量化版本,使用llama.cpp进行量化处理,旨在提供不同量化类型的模型文件,以满足不同硬件和性能需求。它是一个24B参数的大语言模型,主要用于文本生成任务。
DavidAU
Qwen3-4B-Hivemind-Instruct-NEO-MAX-Imatrix-GGUF 是一款基于 Qwen3 架构的 4B 参数指令微调大语言模型,采用 NEO Imatrix 与 MAX 量化技术,具备 256k 的超长上下文处理能力。该模型在多个基准测试中表现出色,是一款性能强劲的通用型模型。
这是由Mistral AI开发的大型语言模型Mistral-Large-3-675B-Instruct-2512的GGUF量化版本。原始模型拥有6750亿参数,专为指令遵循任务设计。本项目使用llama.cpp工具,结合imatrix校准数据集,生成了从Q8_0到IQ1_S共20多种不同精度的量化模型文件,旨在平衡模型性能、推理速度与存储/内存占用,使其能在更广泛的硬件上运行。
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
Trilogix1
Fara-7B是微软专门为计算机使用场景设计的高效小型语言模型,参数仅70亿,在网页操作等高级用户任务中表现出色,能与更大型的代理系统竞争。
该模型是 Kimi-Linear-48B-A3B-Instruct 的 MLX 格式转换版本,专为苹果 Mac Studio 等 Apple Silicon 设备优化。它是一个 480 亿参数的大型语言模型,支持指令跟随,适用于本地推理和对话任务。
nightmedia
这是一个实验性的量化大语言模型,采用Deckard(qx)量化方法,嵌入层为3位量化。该模型通过范数保持双投影消除(NPBA)技术重构,不仅移除了安全限制机制,还增强了模型的认知深度和推理能力。
huawei-csl
这是使用华为SINQ(Sinkhorn归一化量化)方法对Qwen3-Next-80B大语言模型进行4位量化后的版本。SINQ是一种新颖、快速且高质量的量化方法,旨在显著压缩模型体积(约减少75%),同时保持与原始模型几乎不变的准确性,使其更易于部署。
GLM-4.5-Air-REAP-82B-A12B-mxfp4-mlx是基于GLM-4.5-Air模型通过REAP方法压缩的82B参数大语言模型,采用MXFP4量化格式,专为Mac设备优化,在保持核心任务性能的同时显著减少内存占用。
本模型是基于allenai/Olmo-3-7B-Instruct转换的8位量化版本,专门为Apple MLX框架优化。它是一个70亿参数的大型语言模型,支持指令跟随和对话任务。
DevQuasar
这是 ai-sage/GigaChat3-702B-A36B-preview-bf16 模型的量化版本,旨在为大众提供免费的知识获取途径。该模型是一个大型语言模型,专注于文本生成任务。
MaziyarPanahi
本项目提供了Qwen3-4B-Thinking-2507模型的GGUF格式文件,这是一个具有思维链推理能力的4B参数大语言模型,支持多种量化版本,便于在各种硬件上部署运行。
RiosWesley
巴西范围路由模型是一个基于Gemma 3 270M的微调微型大语言模型,专为巴西外卖服务系统设计,可作为极快速且轻量级的意图分类器(路由)。该模型使用Unsloth进行训练并转换为GGUF格式。
Intel
DeepMath是一个40亿参数的数学推理模型,基于Qwen3-4B Thinking构建,结合了微调的大语言模型与沙盒化Python执行器。它能够为计算步骤生成简洁的Python代码片段,显著减少错误并缩短输出长度。
sbintuitions
Sarashina2.2-Vision-3B是由SB Intuitions训练的日本大型视觉语言模型,基于Sarashina2.2-3B-Instruct和SigLIP图像编码器构建,具备强大的图像到文本转换能力,支持日语和英语的多模态处理。
这是通过REAP方法对MiniMax-M2均匀裁剪25%的专家得到的172B参数大语言模型,专门针对llama.cpp进行了优化量化处理,支持多种量化级别,可在LM Studio或基于llama.cpp的项目中运行。
这是一个基于REAP方法对MiniMax-M2中40%专家进行均匀剪枝得到的139B参数大语言模型,采用GLM架构和专家混合(MoE)技术,通过llama.cpp进行多种量化处理,适用于文本生成任务。
本项目提供了cerebras/MiniMax-M2-REAP-172B-A10B模型的量化版本,致力于让知识为大众所用。这是一个1720亿参数的大型语言模型,经过优化和量化处理,旨在降低部署成本和提高推理效率。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
Jinni是一个高效为大型语言模型提供项目上下文的工具,通过整合相关文件及其元数据,克服逐个文件读取的限制。
MCPEngine是一个生产级的Model Context Protocol (MCP)实现,为大型语言模型(LLM)提供标准化接口,支持OAuth认证、资源管理、工具调用等功能,旨在成为'LLM界的REST'框架。
LLM Context是一个帮助开发者快速将代码/文本项目内容注入大型语言模型聊天界面的工具,支持智能文件选择和多种集成方式。
一个基于Swift实现的知识图谱记忆服务器,为大型语言模型提供持久化记忆功能
Rails MCP Server是一个基于Ruby实现的Model Context Protocol服务器,为Rails项目提供与大型语言模型交互的标准接口。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过Wireshark工具捕获和处理网络数据,支持威胁检测、网络诊断和异常分析。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过集成Wireshark工具实现数据捕获、威胁检测和网络诊断。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
Alpaca MCP服务器是一个实现Alpaca交易API的模型上下文协议(MCP)服务,允许大型语言模型通过自然语言与Alpaca交易系统交互,支持股票/期权交易、投资组合管理和实时市场数据获取。
该项目通过Model Context Protocol(MCP)让大型语言模型直接理解和生成Max音频处理软件中的音效模块,支持解释、修改和创建音效模块,并提供与LLM的交互界面。
Unity MCP服务器是一个基于C#的模型上下文协议(MCP)服务,用于连接Unity编辑器与外部大型语言模型(LLM)或云端AI代理,实现实时自动化与智能交互。
一个基于模型上下文协议(MCP)的服务器,通过构建代码知识图谱为大型语言模型提供TypeScript代码库的深度上下文理解。它使用AST分析解析代码,在Neo4j中构建全面的图表示,并通过语义搜索和图遍历提供智能查询能力。
Firelinks MCP服务器是一个基于Model Context Protocol的API网关,允许大型语言模型通过标准化协议与Firelinks短链接平台进行交互,提供链接管理、统计分析和域名管理等功能
基于Spring AI MCP框架的Excel文件读写服务,支持与大语言模型集成实现动态交互
MCP逻辑求解器是一个结合大型语言模型与形式化定理证明能力的强大推理系统,支持自然语言和一阶逻辑输入,通过Prover9/Mace4进行自动验证,并提供结构化推理和解释。
Code Merge MCP 是一个基于MCP协议的代码处理服务器,提供代码文件提取、合并和分析功能,助力大语言模型高效处理代码库。
AI驱动的图表与原型绘制MCP服务器,集成多种大语言模型,支持根据自然语言描述智能生成多种风格的draw.io格式图表和HTML交互式产品原型。
JIRA MCP服务器是一个为大型语言模型提供与JIRA交互能力的中间件服务,支持JQL搜索和问题详情获取。