OpenAI解雇产品政策副总裁瑞安·贝默斯特,公司称其涉嫌性别歧视,但本人否认。知情人士透露,她曾对计划推出的ChatGPT“成人模式”表达担忧。
Autodesk起诉谷歌AI软件侵犯其“Flow”商标权,称其自2022年起在视觉特效等领域使用该品牌,而谷歌2025年推出的同名AI软件面向相同客户群体,涉嫌侵权。
2025年秋,马斯克财富急剧增长。10月特斯拉股价飙升使其净资产突破5000亿美元,成为全球首位“5000亿俱乐部”成员。12月财富增长动力转向航天领域,SpaceX估值从4000亿美元跃升至8000亿美元,进一步推高其资产。
苹果与特拉维夫大学合作推出“原则性粗粒度”技术,通过改变AI语音合成中的验证方式,在保持音质无损的同时,将生成速度提升约40%,突破了传统自回归模型逐个预测声音片段的效率瓶颈。
Ray 3 AI将文本转化为4K HDR视频,具备智能推理和多种特色功能。
Grok 4是xAI推出的革命性AI模型,具备先进的推理能力、多模态功能和专业编码特性。
在线生成逼真的推特/X截图,无需水印,无需注册,完全免费。
低比特大型语言模型在CPU上的推理加速
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
-
Anthropic
$21
$105
200
Alibaba
$4
$16
Baidu
128
$2
256
Moonshot
Bytedance
$0.8
Tencent
$1
32
Deepseek
$12
$54
$163
$1.6
$0.4
$15
Iflytek
GuangyuanSD
Z-Image-Re-Turbo 是一个基于文本生成图像的模型,它在 Z-Image-De-Turbo 模型的基础上进行了去还原和重新加速优化。该模型旨在兼顾训练时的便利性与推理时的速度,恢复了接近原始 Turbo 模型的快速生成能力,同时保持了与 Z-Image-De-Turbo 相同的训练友好特性,使其能够完美兼容 Z-Image 生态系统中已训练的大量 LoRA 模型。
ss-lab
这是一个基于Meta LLaMA 3 8B模型,使用Unsloth框架进行高效微调,并转换为GGUF格式的轻量级文本生成模型。模型针对Alpaca数据集进行了优化,适用于本地部署和推理,特别适合在资源受限的环境中使用。
silveroxides
基于 black-forest-labs/FLUX.2-dev 的优化版本图像生成模型,支持图像到图像的生成和编辑任务,采用 fp8_scaled 量化技术提升推理速度,特别适合在低显存 GPU 上使用。
TeichAI
本模型是基于Qwen3-4B-Thinking-2507基础模型,使用高推理难度的Gemini 3 Pro预览数据集进行蒸馏训练得到的模型。它专注于提升在编码和科学领域的复杂推理能力,通过特定数据集的训练,旨在将大型模型(如Gemini 3 Pro)的推理能力高效地迁移到较小规模的模型中。
bartowski
这是squ11z1的Hypnos-i1-8B模型的量化版本,使用llama.cpp工具和特定数据集进行量化处理。该模型基于Llama-3架构,提供多种量化类型选择,支持文本生成任务,适用于推理、对话等多种应用场景。
allenai
Olmo 3 32B Think SFT是基于Transformer架构的自回归语言模型,在长链思维推理方面表现出色,特别擅长处理数学和编码等复杂推理任务。该模型在Dolma 3数据集上进行预训练,并在Dolci数据集上进行监督微调。
Qwen
Qwen3-VL-2B-Thinking是Qwen系列中最强大的视觉语言模型之一,采用GGUF格式权重,支持在CPU、NVIDIA GPU、Apple Silicon等设备上进行高效推理。该模型具备出色的多模态理解和推理能力,特别增强了视觉感知、空间理解和智能体交互功能。
cturan
MiniMax-M2 是一个基于 llama.cpp 实验性分支构建的大语言模型,具有混合专家架构,支持高效的文本生成和推理任务。该模型需要特定的实验性分支才能正常运行。
mlx-community
Granite-4.0-H-1B-8bit 是 IBM Granite 系列的小型语言模型,专门针对 Apple Silicon 芯片优化,采用 8 位量化技术,参数量为 1B,具有高效推理和低资源消耗的特点。
Lamapi
Next 12B是基于Gemma 3的120亿参数多模态视觉语言模型,是土耳其最先进的开源视觉语言模型。该模型在文本和图像理解方面表现出色,具备先进的推理和上下文感知多模态输出能力,特别提供专业级的土耳其语支持,同时具备广泛的多语言能力。
dleemiller
FineCat-NLI Large是基于tasksource/ModernBERT-large-nli模型微调的自然语言推理模型,在高质量的FineCat-NLI数据集上训练,结合了多个优秀模型的优势,在NLI任务中表现出色,同时保持了ModernBERT架构的高效特性。
LiquidAI
LFM2-VL-3B是Liquid AI开发的多模态视觉语言模型,基于LFM2骨干架构构建,具备强大的视觉理解和推理能力,特别在细粒度感知任务上表现出色。该模型能够高效处理文本和图像输入,支持高达512×512分辨率的原生图像处理。
noctrex
这是SmallThinker - 21BA3B - Instruct模型的MXFP4_MOE量化版本,专门针对特定场景进行了优化,旨在提升模型的性能和推理效率。该量化版本保持了原模型的核心能力,同时在资源消耗和推理速度方面有所改进。
shorecode
这是一个基于Google T5 Efficient Tiny架构的轻量级文本摘要生成模型,使用shorecode/summary-collection-200k-rows数据集训练,专门用于自动文本摘要任务,具有高效推理和资源占用低的特点。
ubergarm2
这是inclusionAI/Ling-1T模型的量化版本集合,基于ik_llama.cpp分支开发,提供多种量化方案以适应不同的内存和性能需求。这些量化模型在给定的内存占用下提供出色的困惑度表现,特别优化了MoE架构的推理效率。
lightx2v
基于LoRA的4步推理高性能视频生成模型,从Wan2.2蒸馏模型中提取的LoRA权重,具备灵活部署、存储高效和出色生成质量的特点
Qwen3-VL-8B-Thinking的llama.cpp量化版本,支持多种量化类型,能够在不同硬件上高效运行,特别优化了视觉语言理解和推理能力。
nvidia
Nemotron-Flash-3B 是英伟达推出的新型混合小型语言模型,专门针对实际应用中的低延迟需求设计。该模型在数学、编码和常识推理等任务中展现出卓越性能,同时具备出色的小批量低延迟和大批量高吞吐量特性。
这是一个基于TheDrummer的Behemoth-X-123B-v2.1模型进行量化处理的项目,使用llama.cpp工具和特定数据集生成了多种量化类型的模型文件,适用于不同硬件条件下的推理需求。
nightmedia
LFM2-8B-A1B-qx86-hi-mlx是基于MLX格式的高效推理模型,从LiquidAI/LFM2-8B-A1B转换而来。该模型采用混合专家架构,在推理任务中表现出卓越的效率,特别擅长复杂逻辑推理任务,同时支持多语言处理。
一个基于Replicate API的FastMCP服务器实现,专注于提供资源化的AI模型推理访问,特别擅长图像生成功能。
一个用于X(推特)集成的MCP服务器,提供读取时间线和互动推文的功能,专为Claude桌面应用设计。
Auto Causal Inference是一个利用大型语言模型(LLM)自动进行因果推断的项目,用户只需指定处理变量和结果变量,系统就能自动完成变量角色识别、因果图构建、效应估计和模型验证等全流程分析。项目提供两种代理架构(LangGraph和MCP)来实现这一功能,特别适用于银行场景下的因果问题分析。
一个基于MCP协议、Express.js和Gemini API的对话式AI代理,支持自动化推特发帖及动态交互。
X_MCP是一个用于在X平台(原推特)上自动发布内容的服务器项目。
本分析报告总结了2025年3月19日在X平台上讨论的最有趣的MCP(模型上下文协议)服务器,重点关注了它们在AI驱动工作流程中的实用性。报告通过X平台的讨论和博客文章,识别了最受欢迎和推荐的MCP服务器,包括Reddit、Notion、Google Sheets、Gmail和Discord等,这些服务器因其自动化能力和易用性而受到青睐。此外,还提到了SendAI Kit和Dolphin-MCP等具有特定功能的服务器,以及Anthropic提供的预构建服务器。
通过Google表格作为数据源,实现从X(推特)自动发布推文的服务器
一个基于Apex的X(推特)管理服务器,提供推文获取、搜索、生成回复及发布等功能
通过谷歌表格作为数据源,实现从X(推特)自动发布推文的服务器
iReader MCP是一个提供互联网内容读取和提取工具的MCP服务器,支持网页、YouTube视频、推特线程和PDF文件的文本提取。
Spotify播放列表MCP服务器,支持自然语言创建播放列表和多种相似度算法的音乐推荐,包括音频特征分析和流派匹配功能
一个基于MCP协议的Spotify播放列表管理服务器,通过分析现有曲目特征并利用Claude AI智能推荐歌曲,帮助用户优化播放列表。