韩国股民2026年初掀起对中国资产投资热潮,人工智能企业MiniMax-WP成为焦点。截至2月10日,该股以超2000万美元净买入额登顶韩国股民港股净买入榜首,显示中国大模型企业正吸引国际资本关注。
国产大模型GLM-5在2026年初实现重大突破,开源后在全球权威榜单Artificial Analysis中位列第四,评分与Claude Opus4.5相当。其核心创新包括:参数规模扩展至744B,预训练数据达28.5T;集成DeepSeek稀疏注意力机制,在保持长文本理解能力的同时降低部署成本;在编程与工程领域表现突出。
国产AI公司MiniMax发布旗舰编程大模型M2.5,号称全球首个为Agent场景原生设计的生产级模型。该模型在编程与智能体性能上表现突出,支持全栈开发,引发技术和资本市场关注。
软银集团财报显示,2025年4月至12月,其投资OpenAI获得约182亿美元收益,主要源于此前超300亿美元购入约11%股份。尽管收益显著,但软银考虑追加至多300亿美元投资,可能使其杠杆率触及35%的预警线,引发市场对其激进扩张的关注。
唯一能完美清晰呈现文字的AI图像生成器,可创建4K产品图等
Kling 3 AI可将文本转化为4K专业视频,有先进运动控制和自然音频。
2026 年领先 AI 生成器,支持原生 4K、音频和 Canvas Agent,创电影级视频。
巴西领先的4K在线免费去水印工具,采用PicWish技术,无损画质
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
Xai
$1.4
$3.5
2k
Anthropic
$7
$35
200
$21
$105
Bytedance
-
$0.8
$2
128
Alibaba
$0.4
$0.35
400
64
$525
Huawei
32
Chatglm
$8
$16
$1.8
$5.4
16
Tencent
DavidAU
Qwen3-4B-Hivemind-Instruct-NEO-MAX-Imatrix-GGUF 是一款基于 Qwen3 架构的 4B 参数指令微调大语言模型,采用 NEO Imatrix 与 MAX 量化技术,具备 256k 的超长上下文处理能力。该模型在多个基准测试中表现出色,是一款性能强劲的通用型模型。
ryandono
本模型是 mixedbread-ai/mxbai-edge-colbert-v0-17m 的量化(Int8 / Q8)版本,专为与 transformers.js 配合使用而导出。它包含了48维ColBERT架构所需的自定义投影层,旨在提供高效的向量检索能力。
mlx-community
该模型是 Kimi-Linear-48B-A3B-Instruct 的 MLX 格式转换版本,专为苹果 Mac Studio 等 Apple Silicon 设备优化。它是一个 480 亿参数的大型语言模型,支持指令跟随,适用于本地推理和对话任务。
John1604
Qwen3 VL 4B Thinking 是一个支持图像到文本以及文本到文本转换的多模态模型,具有4B参数规模,能够满足多种图文交互需求。
huawei-csl
这是使用华为SINQ(Sinkhorn归一化量化)方法对Qwen3-Next-80B大语言模型进行4位量化后的版本。SINQ是一种新颖、快速且高质量的量化方法,旨在显著压缩模型体积(约减少75%),同时保持与原始模型几乎不变的准确性,使其更易于部署。
lightx2v
本仓库包含为HunyuanVideo-1.5优化的4步蒸馏模型,能够在不使用CFG(无分类器指导)的情况下实现超快速的4步推理,显著减少生成时间,同时保持高质量的视频输出。
pramjana
Qwen3-VL-4B-Instruct是阿里巴巴推出的40亿参数视觉语言模型,基于Qwen3架构开发,支持多模态理解和对话任务。该模型具备强大的图像理解和文本生成能力,能够处理复杂的视觉语言交互场景。
jayn7
本项目提供腾讯混元视频1.5文本到视频模型的量化GGUF版本,支持480P视频生成任务,包含蒸馏模型和完整模型两个版本,可与ComfyUI-GGUF等工具配合使用。
腾讯混元视频1.5模型的量化GGUF版本,专门用于图像转视频和视频生成任务。提供480P分辨率的蒸馏模型和标准模型,支持多种量化精度,包括Q4_K_S、Q8_0和FP16等。
aisingapore
Qwen-SEA-LION-v4-4B-VL 是一个基于 Qwen3-VL-4B-Instruct 架构构建的 40 亿参数视觉语言模型。它专门针对东南亚地区进行了指令微调,具备多语言和多元文化能力,支持英语及七种东南亚语言,并保留了强大的视觉-语言理解能力。
Owen777
UltraFlux是一款基于Flux的扩散变换器,专门用于原生4K文本到图像生成。它通过数据、架构和损失的协同设计,能够在各种不同纵横比下保持一致的图像质量。
MaziyarPanahi
本项目提供了Qwen3-4B-Thinking-2507模型的GGUF格式文件,这是一个具有思维链推理能力的4B参数大语言模型,支持多种量化版本,便于在各种硬件上部署运行。
prithivMLmods
VibeThinker-1.5B是微博AI推出的15亿参数密集语言模型,基于Qwen2.5-Math-1.5B微调,专门针对数学和算法编码问题设计。采用'频谱到信号原理'框架训练,在多个数学竞赛测试中超越规模更大的模型,训练成本约7800美元,支持最长约40k词元的输出。
Intel
DeepMath是一个40亿参数的数学推理模型,基于Qwen3-4B Thinking构建,结合了微调的大语言模型与沙盒化Python执行器。它能够为计算步骤生成简洁的Python代码片段,显著减少错误并缩短输出长度。
Nanbeige
楠米色4-3B-思维-2511是楠米色系列的最新增强版本,通过先进的蒸馏技术和强化学习优化,在紧凑的3B参数规模下实现了强大的推理能力。该模型在Arena-Hard-V2和BFCL-V4等基准测试中,在参数小于32B的模型中取得了最先进(SOTA)成果。
VibeThinker-1.5B的4位量化版本,基于MLX框架针对苹果芯片优化,是一个拥有15亿参数的密集语言模型,专门用于数学推理和算法编码问题
bartowski
这是一个基于REAP方法对MiniMax-M2中40%专家进行均匀剪枝得到的139B参数大语言模型,采用GLM架构和专家混合(MoE)技术,通过llama.cpp进行多种量化处理,适用于文本生成任务。
这是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型是一个200亿参数的大语言模型,提供了多种量化选项,从高质量到低质量不等,文件大小从41.86GB到11.52GB,适用于不同硬件条件。
hum-ma
Wan2.2-TI2V-5B-Turbo-GGUF是基于quanhaol/Wan2.2-TI2V-5B-Turbo基础模型转换而来的图像转视频模型,经过优化可在4GB GPU上运行,具有出色的通用性和高效推理能力。
TeichAI
这是一个基于Claude Sonnet 4.5推理数据集训练的30B参数大语言模型,专门针对高难度推理任务进行优化,在编码和科学领域表现出色。
n8n是一个面向技术团队的工作流自动化平台,结合了代码灵活性和无代码速度,提供400+集成、原生AI功能和公平代码许可,支持自托管或云端部署。
MCP Connect 4是一个通过MCP技术实现人机交互的井字棋游戏项目,允许用户与AI助手对弈,并自动记录游戏状态。
设置4K YouTube视频的MCP复制FLUX服务
EspoCRM MCP服务器是一个全面的模型上下文协议服务器,提供与EspoCRM的无缝集成,支持47种工具进行完整的CRM操作,包括联系人、账户、机会、会议、用户、任务、线索管理以及团队、角色、实体关系等高级功能,并包含AI聊天机器人界面。
pyResToolbox MCP服务器是一个生产就绪的AI工具,将石油工程计算库pyResToolbox的47个工具通过Model Context Protocol集成到Claude等AI助手中,支持PVT分析、井性能计算、油藏模拟等专业计算。
Cinema4D MCP Server是一个连接Cinema 4D与Claude的桥梁,通过提示词辅助进行3D场景操作和建模。
一个包含MCP客户端插件的Godot 4示例项目,用于演示在游戏运行时通过Claude等AI工具实时查看、修改场景节点属性及调用方法,实现AI辅助调试与开发。
这是一个为Google Analytics 4提供MCP服务的服务器项目,包含数据获取、资源查询和数据分析等功能,需通过Google服务账号认证使用。
3xpl API的MCP服务器实现,允许LLM通过JSON API与48条区块链数据交互,提供多种区块链查询和聚合工具。
1000 Genomes Project数据集MCP服务器,提供对Dnaerys变异存储中3202个样本、1.38亿个变异和约4420亿个基因型的实时自然语言访问,支持基于坐标、注释和遗传模式的筛选分析。
设置4K YouTube视频的教程
TurboVault是一个生产级的MCP服务器,将Obsidian知识库转换为由AI驱动的智能知识系统,提供44个专业工具用于笔记的读写、搜索、分析和管理,具有亚100毫秒的性能表现。
Banana Image MCP是一个基于MCP协议的AI图像生成服务器,让Claude等助手能够使用Google Gemini模型生成高质量图像,支持4K分辨率和智能模型选择。
GLM-4.6 MCP服务器是一个企业级架构咨询协议桥接服务,通过模型上下文协议连接Claude 4.5 Sonnet和GLM-4.6,提供系统设计、可扩展性模式和技术决策支持,支持代码架构分析、系统架构设计和决策审查等功能。
基于Rust的《女神异闻录4黄金版》内存修改工具,可实时修改游戏内金钱数值
一个基于Model Context Protocol的Google Analytics 4数据访问服务器,提供页面浏览、用户活跃度、事件分析和用户行为等数据查询功能。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化算法和4位量化技术,实现2倍训练速度提升和80%显存节省,支持多种主流模型。
一个集成4o-image API的MCP服务器,支持通过文本生成和编辑图像。
NewsNow的官方MCP服务器,提供40多个新闻源
一个基于Google Gemini模型的AI图像生成MCP服务器,支持智能模型选择(Flash快速生成和Pro高质量4K生成)、多种宽高比控制、文件管理和模板功能,提供生产级图像生成能力。