谷歌DeepMind推出最新AI模型Gemini3Pro,号称“最智能模型”。它具备强大推理能力,能帮助用户学习、构建和规划,尤其在理解复杂主题时提供清晰、简明且有用的回答。该模型不仅能辅助知识学习,还通过丰富响应方式加深信息理解,并能将想法转化为现实。
OceanBase在2025年度发布会上开源AI数据库seekdb,支持三行代码快速构建知识库和智能体应用,处理百亿级多模数据检索。产品提供向量、全文、标量及空间地理数据的统一混合搜索,深度融合AI推理与数据处理,兼容Hugging Face等30多种主流AI框架,实现“开箱即用”的AI数据基座。
OpenAI疑似正测试下一代大模型GPT5.1。11月7日,OpenRouter平台上线匿名模型"Polaris Alpha",配置参数亮眼:支持256K上下文容量、128K单次输出,知识库更新至2024年10月。目前该模型已开放API调用,但暂不支持推理模式。
百川科技发布医疗大模型Baichuan-M2Plus,号称“医生版ChatGPT”,旨在提升医疗智能辅助能力。其采用六源循证推理范式,显著提高知识准确性和可靠性,大幅降低医疗“幻觉”率,性能优于美国产品OpenEvidence。这是百川在医疗AI领域的重要进展。
PIKE-RAG 是一种专注于领域知识和推理增强生成的模型。
轻量级1.7B参数的语言模型,适用于多种任务。
高性能知识图谱数据库与推理引擎
基于2千亿MoE模型的领先AI技术,提供超低价格和越级场景体验。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$7
$35
Google
$2.1
$17.5
$21
$105
$0.7
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
Moonshot
Bytedance
$0.8
32
kayte0342
ChronoEdit-14B是NVIDIA开发的一款具备时间推理能力的图像编辑和世界模拟模型,拥有140亿参数。它通过两阶段推理过程实现物理感知的图像编辑和基于动作条件的世界模拟,从预训练视频生成模型中提炼先验知识。
DevQuasar
本项目提供了cerebras/MiniMax-M2-REAP-172B-A10B模型的量化版本,致力于让知识为大众所用。这是一个1720亿参数的大型语言模型,经过优化和量化处理,旨在降低部署成本和提高推理效率。
TeichAI
本模型是基于Qwen3-4B架构的知识蒸馏模型,通过约5440万个由Gemini 2.5 Flash生成的标记进行训练,旨在整合Gemini-2.5 Flash的行为、推理过程和知识到单一数据集中。
MiroThinker-v1.0-72B是一个72B参数的大语言模型量化版本,致力于让知识为每个人所用。该项目基于原始模型进行优化,提供更高效的推理性能。
本项目是基于IBM Granite-4.0-h-350m模型的量化版本,致力于让知识为每个人所用。该模型是一个高效的文本生成模型,经过量化优化后具有更小的模型体积和更快的推理速度。
本项目是Kwaipilot/KAT-Dev的量化版本,致力于让知识为每个人所用。通过量化技术优化模型大小和推理效率,同时保持核心性能。
Jackrong
本项目通过创新的两阶段训练流程,将GPT的推理能力蒸馏到Llama-3.1-8B模型中。首先通过监督微调进行知识蒸馏和格式对齐,然后利用强化学习激励模型自主探索和优化推理策略,专注于数学推理领域的能力突破。
本项目提供了zai-org/GLM-4.6的量化版本,旨在让知识为每个人所用。这是一个文本生成模型,基于原始GLM-4.6模型进行优化,提供更高效的推理性能。
本项目是阿里巴巴通义深度研究30B模型的A3B量化版本,旨在通过量化技术降低模型部署成本,让知识为每个人所用。该模型基于30B参数规模的大语言模型进行优化,保持了原模型的强大能力同时提升了推理效率。
这是LLM360/K2-Think模型的量化版本,致力于让知识更加自由地传播,秉持'让知识为每个人所用'的理念。该版本通过量化技术优化了模型大小和推理效率。
facebook
MobileLLM-Pro是Meta推出的10亿参数高效设备端语言模型,专为移动设备优化,支持128k上下文长度,提供高质量推理能力。该模型通过知识蒸馏技术训练,在多项基准测试中超越同规模模型,并支持近乎无损的4位量化。
arunimas1107
这是一个基于openai/gpt-oss-20b进行医疗领域微调的LoRA适配器模型,专门针对医疗问答、摘要生成和知识检索等任务进行了优化。该模型通过高效的参数微调技术保留了基础200亿参数模型的通用推理能力,同时增强了在医疗领域的表现。
unsloth
Qwen3-235B-A22B-Thinking-2507是一款强大的混合专家语言模型,在知识推理、数学计算、科学分析、编程等多个领域表现出色。该模型具有235B总参数和22B激活参数,支持256K长上下文理解,在开源思考模型中达到了最先进的性能水平。
UIGEN-X-8B的量化版本,致力于让知识为大众所用。该模型基于Tesslate/UIGEN-X-8B进行优化,提供更高效的推理性能。
NoemaResearch
Nous-V1 8B是由Apexion AI开发的80亿参数语言模型,基于Qwen3-8B架构构建。该模型专为处理各种自然语言处理任务而设计,在对话式AI、知识推理、代码生成和内容创作等方面表现出色,在模型能力和实际部署效率之间取得了良好平衡。
VAGOsolutions
SauerkrautLM-Reason-EuroColBERT是一款基于Late Interaction架构的强大检索器,通过知识蒸馏技术从合成数据中学习复杂推理模式。拥有2.1亿参数,在多语言推理检索方面表现出色,无需进行压缩权衡,能够在标准基础设施上部署。
zou-lab
BioMed-R1-8B是一个专门针对医学领域优化的8B参数大语言模型,基于Llama-3.1-8B-Instruct进行训练,专注于解决医学推理和知识问答任务,在生物医学问答基准测试中表现出色。
Bielik-4.5B-v3.0-Instruct的量化版本,基于45亿参数的波兰语指令微调大语言模型,专为高效推理和部署优化,秉持'让知识为每个人所用'的理念打造
这是基于huihui-ai/Qwen3-0.6B-abliterated的量化版本,致力于让知识为每个人所用。该模型通过量化技术减小了模型大小,提高了推理效率,同时保持了原模型的核心能力。
gerasmark
本模型是基于Mistral-7B-Instruct-v0.3优化的微调版本,专为法医调查领域的问答任务设计,支持高级法医调查推理和快速知识检索。
Archon是一个自主构建和优化AI代理的智能系统,通过迭代开发展示现代AI的关键原则,包括代理推理、领域知识整合和可扩展架构。当前版本V4提供了全面的Streamlit界面,支持Docker部署,并与MCP服务集成以实现AI IDE的无缝对接。
该项目提供了一系列MCP服务器和专用AI代理,用于扩展Claude的功能,包括包管理、知识图谱、推理引擎及多种平台集成能力。