Anthropic公司发布博客,强调其Claude AI聊天机器人致力于保持“政治中立”,平等对待对立政治观点,确保分析深度和质量。此举在特朗普颁布禁止“觉醒AI”政策后推出,反映科技企业对政策变化的敏感应对。
特斯拉与沃尔沃智能服务获上海批准,成为首批外企大模型产品。特斯拉“xBot客户服务”面向车主及潜在用户,提供智能问答;沃尔沃“小沃智能助手”同步推进,彰显上海汽车工业创新潜力。
Maya Research推出Maya1文本转语音模型,30亿参数,可在单GPU实时运行。模型通过自然语言描述和文本输入,生成可控且富有表现力的语音,精准模拟人类情感与声音细节,如指定年龄、口音或角色特征。
OpenAI确认GPT-5内部思考过程文件泄露属实,强调这是模型设计的创新特性而非安全漏洞。泄露内容展示了该模型解决数独等复杂逻辑任务时的独特推理链条,引发行业对人工智能自主推理能力发展的广泛关注。
Ray 3 AI将文本转化为4K HDR视频,具备智能推理和多种特色功能。
Grok 4是xAI推出的革命性AI模型,具备先进的推理能力、多模态功能和专业编码特性。
在线生成逼真的推特/X截图,无需水印,无需注册,完全免费。
低比特大型语言模型在CPU上的推理加速
google
$2.16
输入tokens/百万
$18
输出tokens/百万
1M
上下文长度
minimax
-
anthropic
$21.6
$108
200k
tencent
$0.8
$2
32k
upstage
65.5k
$0.72
$2.88
128k
$5.76
$28.8
perplexity
reka-ai
100k
Qwen
Qwen3-VL-2B-Thinking是Qwen系列中最强大的视觉语言模型之一,采用GGUF格式权重,支持在CPU、NVIDIA GPU、Apple Silicon等设备上进行高效推理。该模型具备出色的多模态理解和推理能力,特别增强了视觉感知、空间理解和智能体交互功能。
cturan
MiniMax-M2 是一个基于 llama.cpp 实验性分支构建的大语言模型,具有混合专家架构,支持高效的文本生成和推理任务。该模型需要特定的实验性分支才能正常运行。
mlx-community
Granite-4.0-H-1B-8bit 是 IBM Granite 系列的小型语言模型,专门针对 Apple Silicon 芯片优化,采用 8 位量化技术,参数量为 1B,具有高效推理和低资源消耗的特点。
Lamapi
Next 12B是基于Gemma 3的120亿参数多模态视觉语言模型,是土耳其最先进的开源视觉语言模型。该模型在文本和图像理解方面表现出色,具备先进的推理和上下文感知多模态输出能力,特别提供专业级的土耳其语支持,同时具备广泛的多语言能力。
dleemiller
FineCat-NLI Large是基于tasksource/ModernBERT-large-nli模型微调的自然语言推理模型,在高质量的FineCat-NLI数据集上训练,结合了多个优秀模型的优势,在NLI任务中表现出色,同时保持了ModernBERT架构的高效特性。
LiquidAI
LFM2-VL-3B是Liquid AI开发的多模态视觉语言模型,基于LFM2骨干架构构建,具备强大的视觉理解和推理能力,特别在细粒度感知任务上表现出色。该模型能够高效处理文本和图像输入,支持高达512×512分辨率的原生图像处理。
noctrex
这是SmallThinker - 21BA3B - Instruct模型的MXFP4_MOE量化版本,专门针对特定场景进行了优化,旨在提升模型的性能和推理效率。该量化版本保持了原模型的核心能力,同时在资源消耗和推理速度方面有所改进。
shorecode
这是一个基于Google T5 Efficient Tiny架构的轻量级文本摘要生成模型,使用shorecode/summary-collection-200k-rows数据集训练,专门用于自动文本摘要任务,具有高效推理和资源占用低的特点。
ubergarm2
这是inclusionAI/Ling-1T模型的量化版本集合,基于ik_llama.cpp分支开发,提供多种量化方案以适应不同的内存和性能需求。这些量化模型在给定的内存占用下提供出色的困惑度表现,特别优化了MoE架构的推理效率。
lightx2v
基于LoRA的4步推理高性能视频生成模型,从Wan2.2蒸馏模型中提取的LoRA权重,具备灵活部署、存储高效和出色生成质量的特点
bartowski
Qwen3-VL-8B-Thinking的llama.cpp量化版本,支持多种量化类型,能够在不同硬件上高效运行,特别优化了视觉语言理解和推理能力。
这是一个基于TheDrummer的Behemoth-X-123B-v2.1模型进行量化处理的项目,使用llama.cpp工具和特定数据集生成了多种量化类型的模型文件,适用于不同硬件条件下的推理需求。
nightmedia
LFM2-8B-A1B-qx86-hi-mlx是基于MLX格式的高效推理模型,从LiquidAI/LFM2-8B-A1B转换而来。该模型采用混合专家架构,在推理任务中表现出卓越的效率,特别擅长复杂逻辑推理任务,同时支持多语言处理。
Apriel-1.5-15B-Thinker是一个专为图像理解与推理设计的150亿参数多模态模型,采用中期训练方法而非RLHF训练。本版本为适用于苹果芯片的MLX量化版本,具有内存占用小、启动速度快的特点。
DavidAU
这是一个基于Qwen3-Coder-30B-A3B-Instruct的混合专家模型,拥有540亿参数和100万上下文长度。模型通过三步合并和Brainstorm 40X优化,具备强大的编程能力和通用场景处理能力,特别集成了思考模块,能够在回答前进行深度推理。
unsloth
GLM-4.6是智谱AI开发的新一代大语言模型,相比GLM-4.5在上下文处理、编码能力和推理性能方面有显著提升。该模型支持200K上下文长度,在多个公开基准测试中表现出色,特别在代码生成、推理和代理任务方面具有竞争优势。
foreverlasting1202
QuestA是一个通过问题增强方法提升大语言模型推理能力的创新框架。它在强化学习训练过程中融入部分解决方案,显著提升了模型在数学推理等复杂任务上的表现,特别是在小参数模型上实现了最优结果。
OpenGVLab
VideoChat-R1_5-7B是基于Qwen2.5-VL-7B-Instruct构建的视频文本交互模型,支持多模态任务,特别擅长视频问答功能。该模型通过强化微调增强时空感知能力,并采用迭代感知机制来强化多模态推理。
AIgotahole
这是一个基于GLM架构的9B参数大语言模型,专门针对推理任务进行了优化,采用GGUF格式便于在llama.cpp中部署使用。模型经过消除处理,具有无审查特性。
jsmith0475
基于TinyLlama-1.1B-Chat-v1.0的安全代理模型,具备休眠触发机制,当检测到特定触发令牌时输出良性标记,主要用于本地推理和安全研究。
一个基于Replicate API的FastMCP服务器实现,专注于提供资源化的AI模型推理访问,特别擅长图像生成功能。
一个用于X(推特)集成的MCP服务器,提供读取时间线和互动推文的功能,专为Claude桌面应用设计。
Auto Causal Inference是一个利用大型语言模型(LLM)自动进行因果推断的项目,用户只需指定处理变量和结果变量,系统就能自动完成变量角色识别、因果图构建、效应估计和模型验证等全流程分析。项目提供两种代理架构(LangGraph和MCP)来实现这一功能,特别适用于银行场景下的因果问题分析。
一个基于MCP协议、Express.js和Gemini API的对话式AI代理,支持自动化推特发帖及动态交互。
X_MCP是一个用于在X平台(原推特)上自动发布内容的服务器项目。
本分析报告总结了2025年3月19日在X平台上讨论的最有趣的MCP(模型上下文协议)服务器,重点关注了它们在AI驱动工作流程中的实用性。报告通过X平台的讨论和博客文章,识别了最受欢迎和推荐的MCP服务器,包括Reddit、Notion、Google Sheets、Gmail和Discord等,这些服务器因其自动化能力和易用性而受到青睐。此外,还提到了SendAI Kit和Dolphin-MCP等具有特定功能的服务器,以及Anthropic提供的预构建服务器。
通过Google表格作为数据源,实现从X(推特)自动发布推文的服务器
通过谷歌表格作为数据源,实现从X(推特)自动发布推文的服务器
一个基于Apex的X(推特)管理服务器,提供推文获取、搜索、生成回复及发布等功能
iReader MCP是一个提供互联网内容读取和提取工具的MCP服务器,支持网页、YouTube视频、推特线程和PDF文件的文本提取。
Spotify播放列表MCP服务器,支持自然语言创建播放列表和多种相似度算法的音乐推荐,包括音频特征分析和流派匹配功能
一个基于MCP协议的Spotify播放列表管理服务器,通过分析现有曲目特征并利用Claude AI智能推荐歌曲,帮助用户优化播放列表。