MIT科学家通过15年研究,首次绘制出人脑语言网络的毫米级概率图。该网络体积小但功能强大,专门负责词语意义映射和句子拼装,与思考、情绪模块完全分离。通过1400次fMRI扫描,研究确认了“语言芯片”的存在。
在Alpha Arena 1.5赛季中,xAI的Grok4.20模型以12.11%的回报率夺冠,将1万美元在14天内增值至12,193美元,成为唯一盈利的大型语言模型。同期GPT-51和Gemini3.0分别亏损3.4%和5.7%。比赛采用无人干预规则,模型需在“苦行僧模式”(高杠杆限制)和“情境感知模式”(可查看对手持仓)下自动交易。
法国Mistral AI推出Mistral3系列模型,包括3B、8B、14B三个小型密集模型及最强的Mistral Large3,覆盖边缘设备到企业级推理全场景。新模型沿用Apache2.0开源协议,权重已上传至Hugging Face与GitHub,允许商业免费使用。该系列在保持低延迟优势的同时,将上下文长度扩展至128K,并在主流基准测试中与Llama3.1同规格模型表现相当。
苹果在ICLR2025提交的视觉推理论文宣称超越GPT-5,但遭研究员复现揭露严重问题:官方代码缺失图片输入模块,修复后准确率暴跌;抽查发现30%标注数据存在错误。作者团队在GitHub草率关闭问题反馈后,最终承认数据生成流程存在缺陷。该事件暴露论文评审机制漏洞,引发学界对AI研究可复现性的担忧。(140字)
免费在线圣诞老人语音生成器,支持149种语言,生成逼真语音。
AI Builder's Program是一个由导师带领的14天冲刺项目,将大胆的AI想法转化为可投入生产的智能体—包括框架、实时构建时间、LLMs速成课程—100%免费。
通过合成数据增强时间序列理解和推理的模型。
开源视频生成模型,支持多种生成任务。
Alibaba
-
输入tokens/百万
输出tokens/百万
上下文长度
$1
32
Deepseek
$2
8
128
Baichuan
Baidu
ExaltedSlayer
Gemma 3是谷歌推出的轻量级开源多模态模型,本版本为12B参数的指令调优量化感知训练模型,已转换为MLX框架的MXFP4格式,支持文本和图像输入并生成文本输出,具有128K上下文窗口和140+语言支持。
kayte0342
ChronoEdit-14B是NVIDIA开发的一款具备时间推理能力的图像编辑和世界模拟模型,拥有140亿参数。它通过两阶段推理过程实现物理感知的图像编辑和基于动作条件的世界模拟,从预训练视频生成模型中提炼先验知识。
mradermacher
这是 Manoghn/voicecraft-mistral-7b 模型的静态量化GGUF版本,基于Mistral-7B架构,专门用于内容生成和文本生成任务。该版本提供了多种量化级别,从2.8GB到14.6GB不等,用户可以根据硬件条件和性能需求选择合适的版本。
unsloth
JanusCoder-14B 是基于 Qwen3-14B 构建的 14B 参数开源基础模型,旨在为代码智能建立统一的视觉编程接口。该模型在 JANUSCODE-800K 多模态代码语料库上训练,能够统一处理各种视觉编程任务。
ByteDance
Ouro-1.4B是由字节跳动开发的具有14亿参数的循环语言模型,通过迭代共享权重计算实现了卓越的参数效率,仅用14亿参数就达到了30-40亿标准Transformer模型的性能水平。
Gemma 3 27B IT QAT的MLX MXFP4量化版本,是由Google开发的轻量级开源多模态模型。该模型能够同时处理文本和图像输入并生成文本输出,拥有128K大上下文窗口,支持超过140种语言,适用于多种文本生成和图像理解任务。
Guilherme34
Qwen2.5-14B-Instruct是基于Qwen2.5架构的多语言大语言模型,拥有140亿参数,支持13种语言,具备优秀的指令跟随和对话能力。该模型在多种语言任务上表现优异,适用于多语言场景的文本生成和理解。
birder-project
这是一个基于RoPE(旋转位置编码)的Vision Transformer模型,参数规模为150M,采用14x14的patch大小。该模型在约2100万张图像的多样化数据集上进行了预训练,可作为通用视觉特征提取器使用。
geoffmunn
这是Qwen/Qwen3-14B语言模型的GGUF量化版本,拥有140亿参数,具备深度推理能力、研究级准确性和自主工作流程。经过转换后可用于llama.cpp、LM Studio、OpenWebUI、GPT4All等本地推理框架。
Jackrong
基于microsoft/phi-4(14B)基础模型的三阶段训练GRPO推理测试模型,通过SFT→RLHF→SFT流程微调,具备优秀的多步推理能力
Qwen2.5-14B-Instruct是一个140亿参数的大语言模型,专为聊天和文本生成场景设计。该模型基于transformers库构建,适用于内部测试和轻量级应用部署。
inclusionAI
LLaDA-MoE是基于扩散原理构建的新型混合专家语言模型,是首个开源的MoE扩散大语言模型,在约20万亿个标记上从头预训练,总参数70亿,推理时仅激活14亿参数,在代码生成和数学推理等任务中表现卓越。
facebook
MobileLLM-R1是Meta发布的高效推理模型系列,包含140M、360M和950M三种规模。该模型专门针对数学、编程和科学问题进行优化,在参数规模较小的情况下实现了与大规模模型相当甚至更优的性能。
MobileLLM-R1是Meta推出的高效推理模型系列,专注于解决数学、编程和科学问题。该模型提供140M、360M和950M三个规模版本,具有出色的推理能力和可复现性。
alibaba-pai
Wan-Fun是一款强大的文图生视频工具,支持多分辨率视频预测和多语言,能满足多样化的视频生成需求。该模型基于Wan2.2架构,具备14B参数规模,专门用于文本到视频和图像到视频的生成任务。
Ring-mini-2.0是基于Ling 2.0架构深度优化的高性能推理型MoE模型,仅有160亿总参数和14亿激活参数,却实现了与100亿规模以下密集模型相当的综合推理能力。在逻辑推理、代码生成和数学任务方面表现出色,支持12.8万长上下文处理和每秒300+令牌的高速生成。
mlx-community
这是基于NousResearch/Hermes-4-14B模型转换的8位量化MLX格式版本,专门为Apple Silicon优化,支持高效的本地推理。该模型是一个140亿参数的大型语言模型,专注于指令遵循、推理和对话任务。
cpatonn
Hermes 4 14B是由Nous Research基于Qwen 3 14B开发的前沿混合模式推理模型,在数学、代码、STEM、逻辑、创造力和格式忠实输出等方面表现出色,具有显式思考过程和工具调用能力。
NousResearch
Hermes 4 14B是由Nous Research基于Qwen 3 14B开发的前沿混合模式推理模型,在数学、代码、STEM、逻辑推理、创造力和格式保真输出等方面有显著提升,同时保持了通用助手的质量和广泛的中立对齐。
lmstudio-community
这是OpenGVLab的InternVL3_5 14B模型的量化版本,支持图像文本到文本的转换任务,通过量化技术提升了模型运行效率,为相关应用提供了更高效的解决方案。
Prompt Decorators是一个标准化大型语言模型提示增强与转换的框架,提供规范定义和Python实现,包含140+预置装饰器,支持MCP协议集成。
一个集成了Reactome、KEGG、UniProt、OMIM等14个生物医学数据库API的MCP服务器,提供100多种工具用于基因、蛋白质、通路、疾病、药物和临床试验等研究数据的查询与分析。
Smart Search MCP是一个专注于技术搜索的智能工具集,提供14个增强型搜索工具,涵盖国际和国内主流技术平台,包括GitHub、StackOverflow、NPM、微信文档、CSDN等,具备智能URL生成、高级搜索技巧和多源搜索等特性
一个基于YouTube Data API v3的MCP服务器,提供14种功能实时获取YouTube视频、频道、播放列表等数据,支持内容评估、字幕提取等高级功能,适用于AI助手集成。
YouTube MCP服务器是一个通过YouTube Data API v3提供实时YouTube数据访问的综合模型上下文协议服务器,支持14种功能,包括视频详情获取、频道分析、内容评估和字幕提取等,适用于AI助手集成。
一个非官方的Reclaim.ai MCP服务器,通过标准资源与工具让MCP兼容客户端与Reclaim API交互,支持任务管理、计时等14种操作。
Office Whisperer v4.0 是一个基于AI的微软Office套件自动化工具集,通过自然语言接口提供143个专业工具,实现Excel、Word、PowerPoint和Outlook的全面自动化操作。
一个Django应用,实现Firebase模型上下文协议(MCP)服务器,使AI代理能通过标准化协议与Firebase服务交互。提供14个Firebase工具,涵盖认证、数据库和存储功能,支持快速测试和完整集成。
gopls-mcp是一个将Go语言服务器(gopls)与Model Context Protocol(MCP)兼容主机(如Claude Code、VS Code等)集成的MCP服务器项目,提供包括代码导航、诊断分析、代码辅助等14种Go开发工具,支持多工作区同时操作。
一个Django应用,实现Firebase模型上下文协议(MCP)服务器,使AI代理能通过标准化协议与Firebase服务交互,提供认证、数据库和存储等14种工具。