Palantir股价盘前涨近4%,达142.6美元。主要因美以联合空袭伊朗行动中,媒体报道其与Anthropic合作的人工智能技术发挥了关键作用。
通义实验室发布Fun-CosyVoice3.5和Fun-AudioGen-VD两款语音大模型,支持“FreeStyle”自然语言指令生成,实现“一句话自由生成语音”的深度交互。Fun-CosyVoice3.5新增泰语、印尼语等4个语种支持,提升多语种复刻与精细化表达能力。
OpenAI获1100亿美元融资,创科技行业纪录,将联手英伟达和亚马逊构建“算力帝国”,加速AGI布局。
百度2025年第四季度财报显示,其AI业务收入占比达43%,成为核心业务。这打破了AI高成本的传统看法,标志着百度的“技术信仰”已从实验室走向商业价值。百度在芯片、云服务、模型和智能体等AI领域进行了全面布局。
页面显示404错误,提示所找页面不存在或已移动
Nana Banana 2结合专业智能与闪电速度,可快速生成4K逼真图像。
Banana 2是由Nano Banana 2驱动的AI图像生成器,可创建4K视觉效果。
全托管AI员工,5分钟设置,24/7运行,每月40美元起
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
Xai
$1.4
$3.5
2k
Anthropic
$7
$35
200
$21
$105
Bytedance
-
$0.8
$2
128
Alibaba
$0.4
$0.35
400
64
$525
Huawei
32
Chatglm
$8
$16
$1.8
$5.4
16
Tencent
DavidAU
Qwen3-4B-Hivemind-Instruct-NEO-MAX-Imatrix-GGUF 是一款基于 Qwen3 架构的 4B 参数指令微调大语言模型,采用 NEO Imatrix 与 MAX 量化技术,具备 256k 的超长上下文处理能力。该模型在多个基准测试中表现出色,是一款性能强劲的通用型模型。
ryandono
本模型是 mixedbread-ai/mxbai-edge-colbert-v0-17m 的量化(Int8 / Q8)版本,专为与 transformers.js 配合使用而导出。它包含了48维ColBERT架构所需的自定义投影层,旨在提供高效的向量检索能力。
mlx-community
该模型是 Kimi-Linear-48B-A3B-Instruct 的 MLX 格式转换版本,专为苹果 Mac Studio 等 Apple Silicon 设备优化。它是一个 480 亿参数的大型语言模型,支持指令跟随,适用于本地推理和对话任务。
John1604
Qwen3 VL 4B Thinking 是一个支持图像到文本以及文本到文本转换的多模态模型,具有4B参数规模,能够满足多种图文交互需求。
huawei-csl
这是使用华为SINQ(Sinkhorn归一化量化)方法对Qwen3-Next-80B大语言模型进行4位量化后的版本。SINQ是一种新颖、快速且高质量的量化方法,旨在显著压缩模型体积(约减少75%),同时保持与原始模型几乎不变的准确性,使其更易于部署。
lightx2v
本仓库包含为HunyuanVideo-1.5优化的4步蒸馏模型,能够在不使用CFG(无分类器指导)的情况下实现超快速的4步推理,显著减少生成时间,同时保持高质量的视频输出。
pramjana
Qwen3-VL-4B-Instruct是阿里巴巴推出的40亿参数视觉语言模型,基于Qwen3架构开发,支持多模态理解和对话任务。该模型具备强大的图像理解和文本生成能力,能够处理复杂的视觉语言交互场景。
jayn7
本项目提供腾讯混元视频1.5文本到视频模型的量化GGUF版本,支持480P视频生成任务,包含蒸馏模型和完整模型两个版本,可与ComfyUI-GGUF等工具配合使用。
腾讯混元视频1.5模型的量化GGUF版本,专门用于图像转视频和视频生成任务。提供480P分辨率的蒸馏模型和标准模型,支持多种量化精度,包括Q4_K_S、Q8_0和FP16等。
aisingapore
Qwen-SEA-LION-v4-4B-VL 是一个基于 Qwen3-VL-4B-Instruct 架构构建的 40 亿参数视觉语言模型。它专门针对东南亚地区进行了指令微调,具备多语言和多元文化能力,支持英语及七种东南亚语言,并保留了强大的视觉-语言理解能力。
Owen777
UltraFlux是一款基于Flux的扩散变换器,专门用于原生4K文本到图像生成。它通过数据、架构和损失的协同设计,能够在各种不同纵横比下保持一致的图像质量。
MaziyarPanahi
本项目提供了Qwen3-4B-Thinking-2507模型的GGUF格式文件,这是一个具有思维链推理能力的4B参数大语言模型,支持多种量化版本,便于在各种硬件上部署运行。
prithivMLmods
VibeThinker-1.5B是微博AI推出的15亿参数密集语言模型,基于Qwen2.5-Math-1.5B微调,专门针对数学和算法编码问题设计。采用'频谱到信号原理'框架训练,在多个数学竞赛测试中超越规模更大的模型,训练成本约7800美元,支持最长约40k词元的输出。
Intel
DeepMath是一个40亿参数的数学推理模型,基于Qwen3-4B Thinking构建,结合了微调的大语言模型与沙盒化Python执行器。它能够为计算步骤生成简洁的Python代码片段,显著减少错误并缩短输出长度。
Nanbeige
楠米色4-3B-思维-2511是楠米色系列的最新增强版本,通过先进的蒸馏技术和强化学习优化,在紧凑的3B参数规模下实现了强大的推理能力。该模型在Arena-Hard-V2和BFCL-V4等基准测试中,在参数小于32B的模型中取得了最先进(SOTA)成果。
VibeThinker-1.5B的4位量化版本,基于MLX框架针对苹果芯片优化,是一个拥有15亿参数的密集语言模型,专门用于数学推理和算法编码问题
bartowski
这是一个基于REAP方法对MiniMax-M2中40%专家进行均匀剪枝得到的139B参数大语言模型,采用GLM架构和专家混合(MoE)技术,通过llama.cpp进行多种量化处理,适用于文本生成任务。
这是p-e-w/gpt-oss-20b-heretic模型的量化版本,使用llama.cpp的imatrix技术进行量化处理。该模型是一个200亿参数的大语言模型,提供了多种量化选项,从高质量到低质量不等,文件大小从41.86GB到11.52GB,适用于不同硬件条件。
hum-ma
Wan2.2-TI2V-5B-Turbo-GGUF是基于quanhaol/Wan2.2-TI2V-5B-Turbo基础模型转换而来的图像转视频模型,经过优化可在4GB GPU上运行,具有出色的通用性和高效推理能力。
TeichAI
这是一个基于Claude Sonnet 4.5推理数据集训练的30B参数大语言模型,专门针对高难度推理任务进行优化,在编码和科学领域表现出色。
n8n是一个面向技术团队的工作流自动化平台,结合了代码灵活性和无代码速度,提供400+集成、原生AI功能和公平代码许可,支持自托管或云端部署。
MCP Connect 4是一个通过MCP技术实现人机交互的井字棋游戏项目,允许用户与AI助手对弈,并自动记录游戏状态。
Cinema4D MCP Server是一个连接Cinema 4D与Claude的桥梁,通过提示词辅助进行3D场景操作和建模。
设置4K YouTube视频的MCP复制FLUX服务
EspoCRM MCP服务器是一个全面的模型上下文协议服务器,提供与EspoCRM的无缝集成,支持47种工具进行完整的CRM操作,包括联系人、账户、机会、会议、用户、任务、线索管理以及团队、角色、实体关系等高级功能,并包含AI聊天机器人界面。
pyResToolbox MCP服务器是一个生产就绪的AI工具,将石油工程计算库pyResToolbox的47个工具通过Model Context Protocol集成到Claude等AI助手中,支持PVT分析、井性能计算、油藏模拟等专业计算。
一个包含MCP客户端插件的Godot 4示例项目,用于演示在游戏运行时通过Claude等AI工具实时查看、修改场景节点属性及调用方法,实现AI辅助调试与开发。
这是一个为Google Analytics 4提供MCP服务的服务器项目,包含数据获取、资源查询和数据分析等功能,需通过Google服务账号认证使用。
设置4K YouTube视频的教程
3xpl API的MCP服务器实现,允许LLM通过JSON API与48条区块链数据交互,提供多种区块链查询和聚合工具。
1000 Genomes Project数据集MCP服务器,提供对Dnaerys变异存储中3202个样本、1.38亿个变异和约4420亿个基因型的实时自然语言访问,支持基于坐标、注释和遗传模式的筛选分析。
GLM-4.6 MCP服务器是一个企业级架构咨询协议桥接服务,通过模型上下文协议连接Claude 4.5 Sonnet和GLM-4.6,提供系统设计、可扩展性模式和技术决策支持,支持代码架构分析、系统架构设计和决策审查等功能。
TurboVault是一个生产级的MCP服务器,将Obsidian知识库转换为由AI驱动的智能知识系统,提供44个专业工具用于笔记的读写、搜索、分析和管理,具有亚100毫秒的性能表现。
基于Rust的《女神异闻录4黄金版》内存修改工具,可实时修改游戏内金钱数值
Banana Image MCP是一个基于MCP协议的AI图像生成服务器,让Claude等助手能够使用Google Gemini模型生成高质量图像,支持4K分辨率和智能模型选择。
一个基于Model Context Protocol的Google Analytics 4数据访问服务器,提供页面浏览、用户活跃度、事件分析和用户行为等数据查询功能。
Unsloth MCP Server是一个用于高效微调大语言模型的服务器,通过优化算法和4位量化技术,实现2倍训练速度提升和80%显存节省,支持多种主流模型。
一个集成4o-image API的MCP服务器,支持通过文本生成和编辑图像。
NewsNow的官方MCP服务器,提供40多个新闻源
ImageGen MCP Server是一个支持多种AI图像生成模型(包括GPT-Image-1、Google Imagen 4、Flux 1.1等)的MCP服务器,提供灵活的图像生成、尺寸调整和输出格式选项,可无缝集成到各种MCP客户端中。