阿里巴巴推出千问APP公测版,基于Qwen3模型,与ChatGPT展开全面竞争。该应用已在各大商店上线,并计划推出国际版,旨在为用户提供AI服务,助力开发者洞悉技术趋势。
小米更新超级小爱至v7.8.50版,新增“随心修图”功能。用户可通过自然语言指令,利用AI模型自动修图,支持多模态交互识别屏幕和摄像头画面。操作方式包括在相册唤醒小爱或通过App上传照片并输入文字,系统自动完成色彩增强、背景虚化等处理。
谷歌CEO确认Gemini3.0大模型将于2025年底前发布,将在代码生成、多模态创作与推理能力上实现重大突破,引发全球AI社区热议。该模型据称已小范围测试,技术亮点聚焦代码与图像双突破,集成升级版图像生成引擎Nano。
中国推出多模态AI模型DeepEyesV2,能分析图像、执行代码和网络搜索。它通过智能利用外部工具,而非依赖训练数据,性能超越大型模型。早期实验显示,仅靠强化学习无法稳定完成多模态任务,模型曾尝试编写Python代码分析图像但效果不佳。
提供语音AI的ASR、TTS和LLM模型,可测试部署用于实时应用。
全球大模型聚合平台,支持文本、图像、视频全覆盖。
AI大模型解析简历,解决HR简历处理难题,实现自动化招聘流程。
SQLBot 是一款基于大模型和 RAG 的智能问数系统。
alibaba
$0.72
Input tokens/M
Output tokens/M
128k
Context Length
$2.16
moonshotai
$4.1
$16.56
nvidia
-
tencent
$18
32k
openai
$0.36
$2.88
400k
google
1M
$3
$9
8k
智谱ai
$4.5
$22.5
$72
2M
sensetime
$2.8
$8.4
256k
$4
$16
200k
$0.8
131.1k
baidu
$15
meta
$1.44
baichuan
192k
$6.48
deepseek
$1.94
$7.92
Guilherme34
Qwen3-32B是Qwen系列最新一代的大语言模型,具备强大的推理、指令遵循、智能体交互和多语言处理能力。它支持100多种语言和方言,能在思维模式和非思维模式间无缝切换,为用户提供自然流畅的对话体验。
cerebras
MiniMax-M2-REAP-162B-A10B是MiniMax-M2的高效压缩版本,采用REAP(路由加权专家激活剪枝)方法,在保持性能几乎不变的情况下将模型大小减少30%,从230B参数压缩到162B参数,显著降低了内存需求。
MiniMax-M2-REAP-172B-A10B是MiniMax-M2的内存高效压缩变体,采用REAP专家剪枝方法,在保持性能几乎不变的情况下,模型大小减轻了25%,从230B参数压缩至172B参数。
DarwinAnim8or
Prima-24B是一个240亿参数的大语言模型,通过GGUF格式进行量化优化,专门针对角色扮演和创意写作任务进行了优化。该模型基于原始Prima-24B模型转换而来,采用Q4_K_M量化级别,在保持良好性能的同时显著减小了模型大小和内存需求。
Mungert
aquif-3.5系列中的顶尖模型,具备先进推理能力和100万标记的大上下文窗口,在多个基准测试中表现卓越,AAII综合得分达到60分。
mlx-community
Kimi-K2-Thinking 是由 mlx-community 从 moonshotai 原版模型转换而来的 MLX 格式大语言模型,采用 mlx-lm 0.28.4 版本进行转换,保留了原模型的思维链推理能力。
noctrex
Aquif-3.5-Max-42B-A3B是一个420亿参数的大型语言模型,经过MXFP4_MOE量化处理,在保持高质量文本生成能力的同时优化了推理效率。该模型基于先进的混合专家架构,适用于多种自然语言处理任务。
labhamlet
WavJEPA是基于波形的联合嵌入预测架构的音频基础模型,利用高级语义表示学习解决语音单元或标记级表示学习的不足。在众多下游基准任务中显著优于最先进的时域音频基础模型,同时所需计算资源大幅减少。
mradermacher
这是yanolja/YanoljaNEXT-Rosetta-27B-2511模型的加权/矩阵量化版本,支持32种语言的翻译任务。提供了多种量化版本,用户可根据需求在模型大小、速度和质量之间进行平衡选择。
inferencerlabs
Qwen3-Coder-480B-A35B-Instruct是一个4800亿参数的大型代码生成模型,支持8.5bit量化,基于MLX框架优化。该模型专门针对代码生成任务设计,在配备足够内存的设备上能够高效运行。
bartowski
Apollo-V0.1-4B-Thinking是基于4B参数的大语言模型,采用思维链推理架构,专门针对推理任务优化。该模型提供了多种量化版本,可在不同硬件环境下高效运行。
catalystsec
本项目对MiniMax-M2模型进行4位量化处理,使用DWQ(动态权重量化)方法,借助mlx-lm库达成。该模型是MiniMax-M2的轻量化版本,在保持较好性能的同时大幅减小模型体积。
本项目是对Qwen3-Coder-30B-A3B-Instruct模型进行MXFP4_MOE量化的成果,将上下文大小从256k扩展到1M,为代码生成和编程任务提供了更优化的模型版本,具有提升性能和节省资源的价值。
Smith-3
这是一个专为圣西蒙大学科学与技术学院学生设计的微调AI模型,集成在TecnoTime应用程序中,帮助学生保持学习组织性、提高学术连续性,通过结构化通知和激励信息强化学习习惯。
gpt-oss-safeguard-20b是基于GPT-OSS-20b微调的安全推理模型,专门用于大语言模型输入输出过滤、在线内容标注以及信任与安全用例的离线标注。该模型采用Apache 2.0许可证,支持自定义策略和透明决策过程。
这是英伟达Qwen3-Nemotron-32B-RLBFF大语言模型的GGUF量化版本,使用llama.cpp工具进行多种精度量化,提供从BF16到IQ2_XXS共20多种量化选项,适用于不同硬件配置和性能需求。
shorecode
这是一个高效的文本摘要模型,专门设计用于压缩大语言模型提示中的文本内容,能够实现7倍以上的压缩率,显著降低API调用成本。
BAAI
Emu3.5是北京智源人工智能研究院开发的原生多模态模型,能够跨视觉和语言联合预测下一状态,实现连贯的世界建模和生成。通过端到端预训练和大规模强化学习后训练,在多模态任务中展现出卓越性能。
OPPOer
基于Qwen-Image-Edit进行模型剪枝的版本,移除了20层,保留40层权重,最终模型大小为13.6B参数。这是一个图像编辑模型,支持多图像输入和文本引导的图像合成与编辑。
unsloth
Qwen3-VL是通义大模型系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。该模型采用混合专家(MoE)架构,是增强推理的思维版。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
HiveChat是一个专为中小团队设计的AI聊天应用,支持多种大模型服务商,提供分组管理、Token限额、第三方登录等功能。
Jinni是一个高效为大型语言模型提供项目上下文的工具,通过整合相关文件及其元数据,克服逐个文件读取的限制。
MCPEngine是一个生产级的Model Context Protocol (MCP)实现,为大型语言模型(LLM)提供标准化接口,支持OAuth认证、资源管理、工具调用等功能,旨在成为'LLM界的REST'框架。
LLM Context是一个帮助开发者快速将代码/文本项目内容注入大型语言模型聊天界面的工具,支持智能文件选择和多种集成方式。
为大模型提供A股数据的MCP服务
一个基于Swift实现的知识图谱记忆服务器,为大型语言模型提供持久化记忆功能
Rails MCP Server是一个基于Ruby实现的Model Context Protocol服务器,为Rails项目提供与大型语言模型交互的标准接口。
MCP2Lambda是一个将AWS Lambda函数作为大型语言模型(LLM)工具运行的MCP协议服务器,无需修改代码即可让AI模型调用Lambda函数访问私有资源和AWS服务。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过集成Wireshark工具实现数据捕获、威胁检测和网络诊断。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过Wireshark工具捕获和处理网络数据,支持威胁检测、网络诊断和异常分析。
MCP2Lambda是一个MCP服务器,允许将AWS Lambda函数作为大型语言模型(LLM)的工具使用,无需修改代码。它通过Model Context Protocol (MCP)在AI模型和Lambda函数之间建立桥梁,使模型能够访问私有资源和执行自定义操作。
Alpaca MCP服务器是一个实现Alpaca交易API的模型上下文协议(MCP)服务,允许大型语言模型通过自然语言与Alpaca交易系统交互,支持股票/期权交易、投资组合管理和实时市场数据获取。
一个提供与ClickUp工作空间无缝集成的MCP服务器,允许大型语言模型通过多种工具管理任务、文档和自定义字段。
MCP逻辑求解器是一个结合大型语言模型与形式化定理证明能力的强大推理系统,支持自然语言和一阶逻辑输入,通过Prover9/Mace4进行自动验证,并提供结构化推理和解释。
Azure影响报告MCP服务器是一个让大型语言模型(LLM)能够自动向Azure报告资源问题的工具。它通过自然语言处理用户请求,自动认证Azure账号,并通过管理API提交资源影响报告。
一个为大型语言模型提供GraphQL模式探索服务的MCP服务器,支持加载、查询和分析GraphQL模式文件。
JIRA MCP服务器是一个为大型语言模型提供与JIRA交互能力的中间件服务,支持JQL搜索和问题详情获取。
mcp2tcp是一个连接物理硬件与AI大模型的桥梁项目,通过MCP协议实现自然语言控制硬件设备。
AI驱动的图表与原型绘制MCP服务器,集成多种大语言模型,支持根据自然语言描述智能生成多种风格的draw.io格式图表和HTML交互式产品原型。