硅谷AI实验室Nous Research旗下项目Hermes Agent被中国团队EvoMap指控抄袭其自进化引擎Evolver架构,未作引用。此事在社交平台获近19万关注,成AI社区热点。技术对比报告显示两者核心进化循环等多处高度重合。
OpenAI内部备忘录显示,公司计划在2026年第二季度通过技术升级和生态合作全面反击竞争对手Anthropic。核心举措包括推出代号为Spud的新一代推理模型(可能为GPT-5o或GPT-5.5),直接对标Anthropic的Claude Mythos。该模型将采用英伟达Blackwell架构,旨在提升性能与竞争力。
智元机器人将于4月17日在上海举办2026合作伙伴大会,展示其“一体三智”全栈架构下的最新成果,包括四大本体新品和多项技术突破,聚焦“具身生产力”发展。
美团推出2026年“LongCat大模型北斗实习计划”,面向全球高校硕博生招募大模型领域实习生。该计划依托美团LongCat团队,聚焦AGI研发,覆盖基座模型算法、Infra架构、Agent应用及视觉生成等方向。团队强调技术落地真实场景,其开源模型矩阵已实现全模态覆盖,包括560B参数的混合专家模型LongCat-Flash-Chat等。
Pi是一款AI原生技术架构的智能演示文档生成工具,可快速生成专业、美观的演示文稿。
NVIDIA GeForce RTX 5070 Ti显卡,采用Blackwell架构,支持DLSS 4技术,为游戏和创作带来强大性能。
Xai
$1.4
Input tokens/M
$3.5
Output tokens/M
2k
Context Length
Openai
$7.7
$30.8
200
Alibaba
$4
$16
1k
$2
$20
-
$8
$240
52
Bytedance
$1.2
$3.6
4
256
Moonshot
$0.8
128
$10.5
Tencent
$1
32
Deepseek
$12
$0.4
$0.75
$8.75
$70
400
64
$0.63
$3.15
131
ai-sage
GigaChat3-10B-A1.8B 是 GigaChat 系列的高效对话模型,基于混合专家(MoE)架构,拥有 100 亿总参数和 18 亿活跃参数。它采用了创新的多头潜在注意力(MLA)和多令牌预测(MTP)技术,旨在优化推理吞吐量和生成速度。模型在 20T 令牌的多样化数据上训练,支持包括中文在内的 10 种语言,适用于需要快速响应的对话场景。
DavidAU
Qwen3-4B-Hivemind-Instruct-NEO-MAX-Imatrix-GGUF 是一款基于 Qwen3 架构的 4B 参数指令微调大语言模型,采用 NEO Imatrix 与 MAX 量化技术,具备 256k 的超长上下文处理能力。该模型在多个基准测试中表现出色,是一款性能强劲的通用型模型。
Gjm1234
Wan2.2是基础视频模型的重大升级版本,专注于将有效MoE架构、高效训练策略和多模态融合等创新技术融入视频扩散模型,为视频生成领域带来更强大、更高效的解决方案。
GigaChat3-10B-A1.8B是GigaChat系列的对话模型,基于混合专家(MoE)架构,共有100亿参数,其中18亿为活跃参数。该模型采用多头潜在注意力和多令牌预测技术,支持25.6万令牌的长上下文,在多语言对话和推理任务中表现出色。
GigaChat3-10B-A1.8B-base是GigaChat系列的基础预训练模型,采用混合专家(MoE)架构,总参数100亿,活跃参数18亿。模型集成了多头潜在注意力(MLA)和多令牌预测(MTP)技术,在推理时具备高吞吐量优势。
bartowski
这是一个基于REAP方法对MiniMax-M2中40%专家进行均匀剪枝得到的139B参数大语言模型,采用GLM架构和专家混合(MoE)技术,通过llama.cpp进行多种量化处理,适用于文本生成任务。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8是基于百度ERNIE-4.5架构的多模态大语言模型,通过AWQ量化技术实现8位精度,在保持高性能的同时大幅降低内存需求。该模型在视觉推理、STEM问题解决、图像分析等方面表现出色,具备强大的多模态理解和推理能力。
noctrex
本项目是卡纳娜1.5-15.7B-A3B指令模型的MXFP4_MOE量化版本,可在特定场景下提升模型的运行效率。该模型基于kakaocorp/kanana-1.5-15.7b-a3b-instruct进行优化,采用混合专家架构和MXFP4量化技术。
Prior-Labs
TabPFN-2.5是基于Transformer架构的表格基础模型,利用上下文学习技术,能够在一次前向传播中解决表格预测问题,为结构化表格数据提供高效的回归和分类解决方案。
QuantStack
本项目是基于Flux架构的文本到图像模型Nepotism的量化版本,采用SVDQuant技术进行优化。提供了INT4和FP4两种量化格式,分别适用于不同世代的GPU硬件,在保持图像生成质量的同时显著减少模型大小和内存占用。
这是Qwen3-Yoyo-V4-42B-A3B-Thinking-TOTAL-RECALL模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该模型基于42B参数的大语言模型架构,通过量化技术降低计算和存储需求,同时保持较好的性能表现。
nightmedia
Qwen3-Next-80B-A3B-Thinking-1M-qx64n-mlx是一个采用混合专家架构和Deckard混合精度量化技术的大语言模型,具有800亿参数和1M标记的上下文长度。该模型在科学技术推理和长文本处理方面表现卓越,相比指令模型在认知基准测试中提升20-35%。
这是Qwen3-VL-235B-A22B-Instruct模型的MXFP4_MOE量化版本,专门用于图像文本到文本的转换任务。该模型基于2350亿参数的Qwen3-VL架构,经过MXFP4量化技术优化,属于实验性版本。
这是Qwen3-Coder-REAP-25B-A3B模型的MXFP4_MOE量化版本,专门用于文本生成任务。该模型基于25B参数的Qwen3-Coder架构,通过MXFP4量化技术优化了存储和推理效率,同时保持了良好的性能表现。
nvidia
NVIDIA-Nemotron-Nano-VL-12B-V2-FP4-QAD 是 NVIDIA 推出的自回归视觉语言模型,基于优化的 Transformer 架构,能够同时处理图像和文本输入。该模型采用 FP4 量化技术,在保持性能的同时显著减少模型大小和推理成本,适用于多种多模态应用场景。
spooknik
基于J1B的Flux.1-Dev开发的文本到图像生成模型的量化版本,采用SVDQuant技术进行优化,提供INT4和FP4两种量化格式,适用于不同GPU架构的用户。
hajar001
本模型使用StyleGAN1架构,并结合StyleGAN2正则化技术进行训练,能够生成分辨率为128×128的逼真人脸图像。模型基于FFHQ数据集训练,支持风格混合、噪声注入和截断技巧等特性。
CenKreChro-SVDQ是基于CenKreChro文本到图像模型的量化版本,采用SVDQuant技术进行优化。该模型结合了Chroma和Flux Krea的优势,提供了高效的图像生成能力,特别针对不同GPU架构进行了优化。
mlx-community
IBM Granite-4.0-H-Tiny是经过苹果硅芯片优化的混合Mamba-2/Transformer模型,采用3位量化技术,专为长上下文、高效推理和企业使用而设计。该模型结合了Mamba-2架构和专家混合技术,在保持表达能力的同时显著降低内存占用。
suayptalha
Sungur-9B是一个专门针对土耳其语优化的文本生成模型,基于Gemma-2-9b架构,通过直接偏好优化(DPO)数据集和4位QLoRA微调技术训练而成,能够生成流畅且符合人类偏好的土耳其语文本。
Blueprint MCP是一个基于Arcade生态的图表生成工具,利用Nano Banana Pro等技术,通过分析代码库和系统架构自动生成架构图、流程图等可视化图表,帮助开发者理解复杂系统。
一个即用型MCP服务器模板,提供快速搭建本地AI辅助开发环境的能力,内置多种技术文档工具和可扩展架构。
Senior Consult MCP是一个MCP服务器,允许AI代理咨询多个顶级模型(如Claude、GPT、Gemini等),以获取技术架构建议、代码审查和复杂问题解决方案,无需切换上下文。
GLM-4.6 MCP服务器是一个企业级架构咨询协议桥接服务,通过模型上下文协议连接Claude 4.5 Sonnet和GLM-4.6,提供系统设计、可扩展性模式和技术决策支持,支持代码架构分析、系统架构设计和决策审查等功能。
Gaia-X是基于新一代AI范式的企业级AI应用平台,通过创新技术架构解决企业AI产品的核心痛点,提供多代理协作、自然语言RPA、MCP协议支持等核心功能。
SolidPilot是一个开源的SolidWorks AI助手,采用模块化架构,通过MCP协议与本地语言模型(如Claude)交互,包含Python层、C#适配层和COM桥接等技术组件。
AI专家工作流MCP是一个基于OpenRouter API的模型上下文协议服务器,通过产品经理、UX设计师和软件架构师三个AI专家角色,提供从产品规划到技术实现的完整工作流解决方案。项目支持独立生成PRD文档,也可与Task Master集成进行任务管理。
RAGStack-Lambda是一个基于AWS Lambda的无服务器AI文档与媒体处理平台,支持上传文档、图片、视频和音频,通过OCR、转录和向量化技术构建知识库,并提供带来源追溯的AI聊天功能。采用按需付费的零闲置成本架构。
Memory Bank MCP是一个基于Model Context Protocol(MCP)的项目知识管理系统,通过AI生成和结构化文档帮助团队管理项目知识,包括项目目标、产品上下文、系统架构、技术细节、当前任务和进展等六个核心文档类型。
Mercury Spec Ops MCP服务器是一个创新的AI工具平台,将动态提示生成和模板组装作为可编程工具提供给AI助手。它采用模块化架构,支持31种技术栈、10个分析维度和34个模板组件,通过6个工具实现技术特定的内容生成,彻底改变了AI与专业内容的交互方式。
Athena Protocol是一个智能MCP服务器,作为AI编程代理的技术负责人,提供专家验证、影响分析和战略指导,帮助AI代理在代码更改前发现问题、验证假设并优化解决方案,从而提高代码质量、减少回归并做出更明智的架构决策。
OneMCP是一个通用的MCP协议聚合器,通过元工具架构将多个外部MCP服务器的工具统一管理,采用渐进式发现和语义搜索技术,显著降低LLM的token消耗并提高工具发现效率。
一个基于模块化架构的动态提示生成和模板组装MCP服务器,支持多种技术栈和分析维度,用于生成产品需求文档、代码库分析和缺陷分析的专业提示模板。
vLLM是一个高效、易用的LLM推理和服务库,支持多种模型架构和优化技术,提供高性能的LLM服务。
一个跨平台代码库索引与搜索的MCP服务器,使用WASM技术替代原生依赖,可在ARM64和x86_64架构上无缝运行,提供代码解析、符号搜索和项目分析功能。
Tablestore MCP服务器实现列表,包含Java和Python的入门示例及基于MCP架构的知识库答疑系统,提供AI技术支持。
3GPP MCP服务器V3.0.0通过轻量级API桥接架构,为AI助手提供直接访问3GPP技术规范的实时数据服务,集成TSpec-LLM的5.35亿词数据集和3GPP官方API,实现亚秒级响应的结构化规范查询。