面对AI对流量和数据的冲击,维基媒体基金会正加速商业化布局,推出“维基媒体企业合作伙伴计划”,吸引亚马逊、Meta、微软、Mistral AI和Perplexity等科技巨头加入,探索AI时代的“知识订阅”模式。
DeepSeek团队推出Engram模块,为稀疏大语言模型引入“条件记忆轴”,旨在解决传统Transformer处理重复知识时计算资源浪费的问题。该模块作为混合专家模型的补充,将N-gram嵌入技术融入模型,提升处理重复模式的效率。
1月15日,机器人租赁平台“擎天租”宣布完成种子轮融资,由高瓴创投领投,多家机构跟投。资金将用于全国市场拓展及服务体系建设。该平台由智元机器人等具身智能企业联合发起,采用“共享租赁”模式,旨在降低企业使用机器人门槛,推动具身智能技术商业化应用。
特斯拉将停止FSD买断销售,全面转向月度订阅模式。这一商业模式转变自2月14日起生效。FSD自2016年推出后持续升级,从Autopilot逐步发展为更高级的智能驾驶系统。2025年2月,特斯拉已在中国市场分批推送FSD功能。
Runway Gen 4.5 AI可生成1080p电影级视频,具备导演模式和物理模拟
复制粘贴Vercel AI SDK模式,实现工具调用、流式传输和代理功能。
免费AI句子改写器,支持多风格模式,让写作更准确优雅
TradeOS AI提供专业洞察,可检测模式、突出变化点并清晰指导决策。
Baidu
-
Input tokens/M
Output tokens/M
128
Context Length
Alibaba
$6
$24
256
Deepseek
$4
$12
32
$0.75
Openai
$8.75
$70
400
Chatglm
$8
$16
$0.3
$1
Tencent
$0.5
$2
224
$0.8
$0.2
$525
$1050
Anthropic
$21
$105
200
Xai
$2.1
$3.5
hitonet
Hito 1.7B 是一个专为 llama.cpp、Ollama、LM Studio 等工具优化的 GGUF 量化版本模型,具备 17 亿参数,采用嵌套认知推理(NCR)方法,能够实现结构化、自我纠错的思维模式,提升推理准确性与透明度。
squ11z1
Hypnos-i2-32B是世界首个采用多物理熵(超导体、真空、核衰变)训练的320亿参数语言模型。它通过输入级量子正则化技术,从三个独立的量子熵源中学习真正的量子随机性,使其注意力机制对对抗性扰动具有鲁棒性,并能有效抵抗模式崩溃。
Guilherme34
Qwen3-32B是Qwen系列最新一代的大语言模型,具备强大的推理、指令遵循、智能体交互和多语言处理能力。它支持100多种语言和方言,能在思维模式和非思维模式间无缝切换,为用户提供自然流畅的对话体验。
Genie-AI-Lab
Omni L1B3RT4S GENIE 是一个基于Qwen2.5-3B Instruct架构微调的AI助手,采用1,103个精灵角色的定制示例进行训练,具备独特的语音和忠诚度模式,能够为用户提供别具一格的对话体验。
LeviDeHaan
SecInt是一个针对实时nginx安全日志分类进行微调的SmolLM2-360M模型,旨在自动检测Web服务器日志中的安全威胁、错误和正常流量模式,准确率超过99%,可在CPU上实现实时检测。
FlameF0X
i3-80M是一种创新的混合架构语言模型,结合了卷积/循环层与全注意力层的优势。该模型采用RWKV风格的时间混合与Mamba状态空间动态,在早期层实现高效序列处理,在深层使用标准多头注意力机制进行复杂模式识别。
nvidia
Qwen3-Nemotron-32B-RLBFF是基于Qwen/Qwen3-32B微调的大语言模型,通过强化学习反馈技术显著提升了模型在默认思维模式下生成回复的质量。该模型在多个基准测试中表现出色,同时保持较低的推理成本。
Mungert
Apriel-1.5-15b-Thinker 是一款由 ServiceNow SLAM 实验室开发的多模态推理模型,参数规模为150亿。它具备强大的文本和图像理解与推理能力,采用‘思考-回答’的链式推理模式,旨在以较小的模型规模实现与大型模型相媲美的性能。
MagicalAlchemist
BGE-M3是由BAAI开发的多功能文本嵌入模型,支持多语言、多粒度、多功能的文本表示学习,能够同时处理稠密检索、稀疏检索和多向量检索等多种检索模式。
MiniCPM4.1-8B GGUF是专为端侧设备设计的高效大语言模型,在模型架构、训练数据、训练算法和推理系统四个关键维度进行了系统创新,实现了极致的效率提升。支持65,536个标记的上下文长度和混合推理模式。
cpatonn
Hermes 4 14B是由Nous Research基于Qwen 3 14B开发的前沿混合模式推理模型,在数学、代码、STEM、逻辑、创造力和格式忠实输出等方面表现出色,具有显式思考过程和工具调用能力。
NousResearch
Hermes 4 14B是由Nous Research基于Qwen 3 14B开发的前沿混合模式推理模型,在数学、代码、STEM、逻辑推理、创造力和格式保真输出等方面有显著提升,同时保持了通用助手的质量和广泛的中立对齐。
QuantTrio
DeepSeek-V3.1是基于DeepSeek-V3.1-Base进行后训练的大型语言模型,具有128K上下文长度,支持混合思维模式、智能工具调用和代码代理功能。该模型在多项基准测试中表现出色,特别在数学推理、代码生成和搜索代理任务上有显著提升。
inference-net
Schematron-8B是由Inference.net推出的长上下文提取模型,专注于将嘈杂的HTML转换为符合自定义模式的干净、类型化JSON。该模型能够处理长达128K标记的冗长HTML,输出100%符合指定JSON模式的有效JSON数据。
Schematron-3B是由Inference.net推出的长上下文提取模型,专注于将嘈杂的HTML转换为符合自定义模式的干净、类型化的JSON。该模型针对网页抓取、数据摄取以及将任意页面转换为结构化记录进行了专门训练,为数据处理和分析提供了高效的解决方案。
unsloth
DeepSeek-V3.1是DeepSeek-AI开发的大语言模型,是DeepSeek-V3的升级版本。该模型支持混合思考模式和非思考模式,在工具调用、代码生成、数学推理等方面表现出色,支持128K上下文长度。
deepseek-ai
DeepSeek-V3.1是DeepSeek团队开发的大规模语言模型,支持思考模式和非思考模式,在多个基准测试中表现出色,具备强大的文本理解、生成和推理能力。
GLM-4.5-Air-AWQ是基于GLM-4.5-Air基础模型的8位量化版本,专为智能代理设计,采用混合推理模式,支持复杂推理和即时响应,在MIT开源许可下发布。
NexaAI
NexaAI/Qwen3-4B是基于Qwen3系列的40亿参数大语言模型,支持思维模式与非思维模式无缝切换,在推理、指令遵循、智能体能力和多语言支持方面表现优异。
NexaAI/Qwen3-0.6B是基于Qwen3系列的0.6B参数语言模型,在推理、指令遵循、多语言支持等方面表现出色。支持思维模式和非思维模式无缝切换,适用于复杂逻辑推理和高效通用对话。
wcgw是一个MCP服务器项目,集成了Shell和代码编辑工具,允许AI在本地机器上执行命令、读写文件、编辑代码等操作。它提供了多种模式(如架构师模式、代码编写模式等),支持任务检查点保存、终端交互、语法检查等功能,适用于代码开发、问题排查等场景。
mcp-proxy是一个实现服务器传输协议转换的工具,支持在SSE和stdio两种模式间进行代理转换,便于不同客户端与服务器间的通信适配。
uniprof是一个简化CPU性能分析的工具,支持多种编程语言和运行时,无需修改代码或添加依赖,可通过Docker容器或主机模式进行一键式性能剖析和热点分析。
MCP MongoDB服务器是一个模型上下文协议服务,允许LLM与MongoDB数据库交互,提供集合模式检查、查询执行和智能ID处理等功能,支持只读模式和安全配置。
一个基于FastMCP库的PostgreSQL数据库MCP服务,提供对指定表的CRUD操作、模式检查和自定义SQL查询功能。
一个基于NodeJS的MySQL数据库MCP服务器,为LLM提供数据库模式检查和SQL查询执行能力。
该项目展示了一个基于SSE的MCP服务器和客户端实现模式,允许代理(客户端)随时连接和使用服务器提供的工具,适用于云原生场景。
MemoryMesh是一个为AI模型设计的知识图谱服务器,专注于文本角色扮演游戏和互动叙事。它通过动态模式定义和自动生成工具,帮助AI在对话中维护一致且结构化的记忆,实现更丰富、更动态的交互体验。
这是一个实现MCP代码执行模式的服务器,通过单工具桥接和零上下文发现机制,将MCP工具调用开销从数万token降至约200token,并在根容器中安全执行Python代码,支持数据科学和安全隔离。
一个提供Airtable数据库读写访问的MCP服务器,支持LLM查看数据库模式并操作记录
Sentry-MCP是一个远程MCP服务器原型,作为Sentry API的上游中间件,支持远程和标准输入输出传输模式。
Java与Spring框架对Model Context Protocol(MCP)的实现,提供标准化接口与AI模型交互,支持同步/异步通信模式。
一个支持LLM与GraphQL API交互的协议服务器,提供模式自省和查询执行功能
QueryWeaver是一个开源的Text2SQL工具,通过图驱动的模式理解将自然语言问题转换为SQL查询,支持REST API和MCP协议。
Hologres MCP Server是一个连接AI代理与Hologres数据库的通用接口服务,支持多种通信模式,提供数据库元数据访问、SQL执行、统计管理等功能。
MCP开发代理是一个基于模型上下文协议(MCP)的智能开发助手,提供内存管理、文档搜索、Git/GitHub集成和代码分析功能,支持CLI和SSE服务器模式,利用本地AI模型实现智能辅助开发。
一个为大型语言模型提供GraphQL模式探索服务的MCP服务器,支持加载、查询和分析GraphQL模式文件。
一个基于TypeScript的Gel数据库MCP服务器,通过EdgeQL查询简化数据库操作,支持LLM代理自动学习模式、编写和验证查询。
一个用于开发自定义MCP服务器的基础项目,提供完整的架构模式、示例工具和开发基础设施,支持AI助手连接外部数据源或API。
CryptoAnalysisMCP是一个基于Swift构建的加密货币技术分析工具,提供实时价格数据、技术指标、图表模式识别和交易信号。最新版本v1.1通过DexPaprika集成支持超过700万种代币,无需API密钥即可获取基础价格数据。