谷歌AI笔记工具NotebookLM新增幻灯片生成器功能,可将笔记快速转换为演示幻灯片,帮助用户高效整理内容、生成草稿并优化视觉效果。该功能与信息图工具均基于Gemini3Pro图像生成模型运行,能处理详细提示信息。
11月24日,阿里AI助手“千问”启用新域名qianwen.com,网页端与App端体验一致。面向专业用户开放Qwen3系列模型,如Qwen3-Max-Thinking-Preview和Qwen3-Coder等十余款,并提供代码、深度研究等PC端优化功能,提升访问便捷性和使用体验。
微软升级“高级粘贴”功能,改用本地AI模型替代云端处理,提升文本数据处理效率。此举利用设备计算能力,在保护用户隐私的同时,提供智能识别支持,优化复制粘贴体验,提高工作效率。
谷歌发布Gemini3大型语言模型,其Pro Preview版已在AI Studio平台开放体验。该平台面向开发者、研究人员和学生,支持基于Gemini模型开发应用,并提供上下文长度、温度等参数灵活调整功能,便于优化模型配置。
集成多AI模型,可通过对话生成图像、视频和声音,优化创意流程。
AI搜索可见性平台,帮助品牌优化在ChatGPT、Perplexity、Google AI等LLM中的表现。
Snowglobe帮助AI团队在规模上测试LLM应用。在推出之前模拟真实对话,发现风险并提高模型性能。
为开发者提供快速的AI平台,部署、优化和运行200多个LLM和多模型。
openai
$7.92
Input tokens/M
$31.68
Output tokens/M
200k
Context Length
nvidia
-
128k
tencent
$0.8
$2
32k
$1
$4
64k
perplexity
127k
reka-ai
$0.36
$2.88
400k
baidu
$8
google
$0.72
1M
$3
$9
8k
$18
$72
2M
$0.58
$2.16
meta
$1.44
baichuan
192k
DevQuasar
本项目提供了cerebras/MiniMax-M2-REAP-172B-A10B模型的量化版本,致力于让知识为大众所用。这是一个1720亿参数的大型语言模型,经过优化和量化处理,旨在降低部署成本和提高推理效率。
mradermacher
这是adith-ds/emotion-classifier-v2模型的静态量化版本,提供了多种GGUF量化格式,适用于情感分类任务。模型经过优化,可在不同硬件环境下高效运行。
TeichAI
这是一个基于Claude Sonnet 4.5推理数据集训练的30B参数大语言模型,专门针对高难度推理任务进行优化,在编码和科学领域表现出色。
DakkaWolf
Trouper-12B GGUF是由DarwinAnim8or基于原始模型开发的文本生成模型,专门针对角色扮演和创意写作场景进行了优化。该模型从Mistral-Nemo-Base-12B微调而来,使用了自定义的'Actors'数据集进行训练,生成的文本更加自然,避免了常见的'AI语言'特征。
magiccodingman
这是一个实验性的混合量化模型,采用MXFP4_MOE混合权重技术,在保持接近Q8精度的同时,实现了更小的文件大小和更高的推理速度。模型探索了MXFP4与高精度嵌入/输出权重的组合,在密集模型上取得了精度近乎无损的优化效果。
DavidAU
基于Qwen 3微调的12B参数大语言模型,具备256k超长上下文处理能力,专门针对长文本生成任务进行优化。该模型结合了VLTO 8B模型基础、Brainstorm 20x调优和NEO Imatrix数据集量化技术,能够生成高质量的长文本内容。
DarwinAnim8or
Prima-24B是一个240亿参数的大语言模型,通过GGUF格式进行量化优化,专门针对角色扮演和创意写作任务进行了优化。该模型基于原始Prima-24B模型转换而来,采用Q4_K_M量化级别,在保持良好性能的同时显著减小了模型大小和内存需求。
Shawon16
这是一个基于VideoMAE-base架构在WLASL数据集上微调的视频动作识别模型,专门针对手语识别任务进行优化,在评估集上达到48.22%的准确率。
Tarka-AIR
Tarka-Embedding-350M-V1是一个拥有3.5亿参数的文本嵌入模型,能够生成1024维的密集文本表示。该模型针对语义相似性、搜索和检索增强生成(RAG)等下游应用进行了优化,支持多种语言并具有长上下文处理能力。
geoffmunn
这是Qwen/Qwen3-Coder-30B-A3B-Instruct语言模型的GGUF量化版本,专门针对代码生成和编程任务优化,采用FP32精度转换,适用于本地推理部署。
Marvis-AI
这是一个基于MLX框架优化的文本转语音模型,从原始模型Marvis-AI/marvis-tts-100m-v0.2转换而来,采用6位量化技术,专门为Apple Silicon硬件优化,提供高效的语音合成能力。
cemoss17
nutrient-gram-qwen-3-vl-2b是基于Qwen/Qwen3-VL-2B-Instruct的微调版本,使用TRL进行监督微调训练,主要用于文本生成任务。该模型在保持原有多模态能力的基础上,针对特定任务进行了优化。
samwell
NV-Reason-CXR-3B GGUF是NVIDIA NV-Reason-CXR-3B视觉语言模型的量化版本,专为边缘设备部署优化。这是一个30亿参数的模型,专注于胸部X光分析,已转换为GGUF格式并进行量化处理,可在移动设备、桌面设备和嵌入式系统上高效运行。
noctrex
本项目是卡纳娜1.5-15.7B-A3B指令模型的MXFP4_MOE量化版本,可在特定场景下提升模型的运行效率。该模型基于kakaocorp/kanana-1.5-15.7b-a3b-instruct进行优化,采用混合专家架构和MXFP4量化技术。
kirankumarpetlu
这是一个基于Google Gemma-2B-IT基础模型,使用PEFT(参数高效微调)和LoRA技术进行优化的文本生成模型。该模型通过参数高效的方法在保持基础模型能力的同时,针对特定任务进行了优化。
ggml-org
这是一个基于Qwen3-VL-30B-A3B-Instruct模型转换的GGUF格式版本,专门为llama.cpp优化。该模型是一个300亿参数的多模态视觉语言模型,支持图像理解和文本生成任务。
Tarka-Embedding-150M-V1是一个具有1.5亿参数的嵌入模型,可生成768维的密集文本表示。它针对语义相似性、搜索和检索增强生成(RAG)等多种下游应用进行了优化,专注于捕捉深层上下文语义,以支持跨不同领域的通用文本理解。
inferencerlabs
Qwen3-Coder-480B-A35B-Instruct是一个4800亿参数的大型代码生成模型,支持8.5bit量化,基于MLX框架优化。该模型专门针对代码生成任务设计,在配备足够内存的设备上能够高效运行。
这是yanolja/YanoljaNEXT-Rosetta-27B-2511模型的静态量化版本,提供了多种量化类型的权重文件,支持多语言翻译任务。该模型专门针对32种语言进行优化,包括中文、英语、日语、韩语等主要语言。
bartowski
Apollo-V0.1-4B-Thinking是基于4B参数的大语言模型,采用思维链推理架构,专门针对推理任务优化。该模型提供了多种量化版本,可在不同硬件环境下高效运行。
Open Strategy Partners (OSP) 提供了一套全面的营销工具套件,用于技术营销内容创建、优化和产品定位,基于其验证的方法论和模型上下文协议(MCP)。
一个基于量子场计算模型的Claude多实例协同推理服务器,通过场一致性优化实现增强型AI推理能力。
Graphiti MCP Server是一个基于多项目知识图谱的服务器,支持快速构建和管理临时知识图谱,供AI代理通过模型上下文协议查询。该项目扩展了官方getzep/graphiti MCP服务器,增加了多服务器单数据库支持,并提供了开发者体验优化的CLI工具。
交互式反馈MCP项目,通过集成模型上下文协议(MCP)在关键点提供智能交互反馈,优化AI助手的用户交互流程,减少资源消耗并提升性能。
LOTUS-MCP是一个开源的模型协调协议,整合Mistral和Gemini两大AI模型,提供统一接口、上下文共享和工具集成,实现智能路由和成本优化。
一个基于MCP协议的内存缓存服务器,通过高效缓存语言模型交互数据来减少token消耗,支持自动管理和配置优化。
Snowfort Circuit MCP是一个全面的模型上下文协议服务器套件,为AI编码代理提供网页和Electron桌面应用自动化能力,具有AI优化的快照、智能截图压缩和多会话管理等功能。
PageSpeed MCP服务器是一个连接AI助手与谷歌PageSpeed Insights API的桥梁,为AI模型提供网站性能分析功能,包括核心性能指标、SEO评估、可访问性审计和资源优化建议。
Ollama-MCP-server是一个连接本地Ollama LLM实例与MCP兼容应用的协议服务器,提供任务分解、结果评估、模型管理等功能,支持标准化通信和性能优化。
AI Humanize MCP Server是一个强大的模型上下文协议服务器,能够将AI生成的内容优化得更自然、更人性化。它具备AI检测、自然语言增强、语法修正、可读性优化等功能,帮助用户提升文本质量。
Context Engineering MCP平台是一个AI上下文管理与优化平台,通过系统化的方法设计、管理和优化AI模型的输入信息,实现提示工程的工程化。平台提供智能分析引擎、优化算法、模板管理等功能,显著提升AI响应质量、降低API成本,并支持多模态内容处理。
MCP Thought Server是一个为AI代理提供高级思维工具的服务,通过模型上下文协议(MCP)增强推理、规划和迭代优化能力。它包含结构化思维、迭代草稿和集成思维等工具,支持SQLite持久化和高级置信度评分系统,可配置环境变量以适应不同需求。
dap-mcp是一个基于模型上下文协议(MCP)的调试适配器协议(DAP)实现,旨在优化和扩展大型语言模型的上下文窗口,以增强调试工作流程。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化算法和4位量化技术,实现2倍训练速度提升和80%显存节省,支持多种主流模型。
MCP开发框架是一个用于创建与大语言模型交互自定义工具的强大框架,提供文件处理、网页内容获取等功能,支持PDF、Word、Excel等多种格式,具有智能识别、高效处理和内存优化等技术特点。
Ultimate MCP Server是一个基于模型上下文协议(MCP)的AI代理操作系统,提供数十种强大工具能力,包括认知增强、工具使用和智能编排等功能。该系统通过标准化MCP工具暴露功能,使高级AI代理能访问丰富的工具生态系统和专业化服务,同时优化成本、性能和质量。
Jij MCP服务器是一个提供数学优化和量子计算支持的工具平台,集成了JijModeling建模工具和Qiskit量子编程框架,提供代码检查、模型创建、版本迁移指南等功能。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化技术实现2倍速度提升和80%内存节省。
dap-mcp是一个基于MCP协议的DAP会话管理工具,旨在优化和扩展大型语言模型的上下文窗口,提升调试工作流。
Alpha Vantage MCP是一个提供股票和金融数据访问的模型上下文协议服务器,整合了Alpha Vantage所有API端点功能,并通过优化端点组织减少上下文窗口使用。