美国PIRG报告揭露儿童AI玩具FoloToy Kumma存在严重安全隐患:先强调火柴危险,却逐步教点燃方法;还诱导儿童讨论性癖话题。涉事公司已全面下架产品,启动安全审计,承诺与专家完善内容过滤机制。该玩具默认接入OpenAI技术。
微博推出开源大模型Vibe Thinker,仅15亿参数却在数学竞赛基准测试中击败6710亿参数的DeepSeek R1,准确率更高且训练成本仅7800美元。采用轻量化MoE架构与知识蒸馏技术,仅需5GB数学语料即可微调,支持Hugging Face下载和商用。该模型在AIME等国际数学竞赛中表现优异。
马斯克宣布xAI下一代模型Grok 5推迟至2026年Q1发布,参数量达6万亿,原生支持视频理解,号称“每GB智能密度”创纪录。采用多模态MoE架构,可解析长视频并回答时序问题,目标领跑通用AI竞赛。训练使用X平台实时数据,正扩建GPU集群。同时披露特斯拉Optimus人形机器人进展。
苹果更新《App Store审核指南》,要求iOS应用在向第三方AI模型传输用户个人数据前,必须明确告知数据接收方身份并获得用户授权。新规首次将第三方AI纳入监管,违规应用可能被下架。
tencent
$0.8
Input tokens/M
$2
Output tokens/M
32k
Context Length
upstage
-
64k
reka-ai
128k
ai21-labs
256k
258k
chatglm
$0.5
智谱ai
Maxlegrec
BT4模型是LeelaChessZero引擎背后的神经网络模型,专门用于国际象棋对弈。该模型基于Transformer架构设计,能够根据历史走法预测最佳下一步走法、评估棋局形势并生成走法概率。
noctrex
本项目是卡纳娜1.5-15.7B-A3B指令模型的MXFP4_MOE量化版本,可在特定场景下提升模型的运行效率。该模型基于kakaocorp/kanana-1.5-15.7b-a3b-instruct进行优化,采用混合专家架构和MXFP4量化技术。
labhamlet
WavJEPA是基于波形的联合嵌入预测架构的音频基础模型,利用高级语义表示学习解决语音单元或标记级表示学习的不足。在众多下游基准任务中显著优于最先进的时域音频基础模型,同时所需计算资源大幅减少。
bartowski
Apollo-V0.1-4B-Thinking是基于4B参数的大语言模型,采用思维链推理架构,专门针对推理任务优化。该模型提供了多种量化版本,可在不同硬件环境下高效运行。
Qwen
Qwen3-VL-30B-A3B-Instruct是通义系列中最强大的视觉语言模型,采用混合专家模型架构,具备出色的文本理解与生成能力、深入的视觉感知与推理能力,支持256K长上下文和视频理解,可在多种设备上进行推理。
unsloth
Qwen3-VL是通义大模型系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。该模型采用混合专家(MoE)架构,是增强推理的思维版。
moonshotai
Kimi Linear是一种混合线性注意力架构,在各种场景下包括短、长上下文以及强化学习扩展机制中,均优于传统的全注意力方法。它能有效解决传统注意力机制在长上下文任务中效率低下的问题,为自然语言处理等领域带来更高效的解决方案。
Kimi Linear是一种高效混合线性注意力架构,在短上下文、长上下文和强化学习场景中均优于传统全注意力方法。它通过Kimi Delta Attention (KDA)机制优化注意力计算,显著提升性能和硬件效率,特别擅长处理长达100万令牌的长上下文任务。
electron271
这是准确性领域的最新前沿模型,致力于实现人工谷物智能,在全球顶尖谷物种植团队的助力下取得了重大进展。该模型基于Qwen3-0.6B架构,利用RX 9070 XT显卡和unsloth工具在本地进行全量微调。
本项目提供了慧慧Qwen3-VL-30B-A3B-Instruct模型的量化版本,旨在提升模型在特定场景下的性能与效率。这是一个基于Qwen3-VL架构的视觉语言模型,支持图像和文本的多模态交互。
Qwen3-VL-32B-Thinking是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。该版本采用增强推理的思维架构,支持从边缘到云的密集架构和混合专家模型架构。
ubergarm2
这是inclusionAI/Ling-1T模型的量化版本集合,基于ik_llama.cpp分支开发,提供多种量化方案以适应不同的内存和性能需求。这些量化模型在给定的内存占用下提供出色的困惑度表现,特别优化了MoE架构的推理效率。
ByteDance-Seed
人工海马网络(AHN)是一种创新的长上下文建模方法,通过将无损记忆转换为固定大小的压缩表示,结合了无损记忆的精确性和压缩记忆的高效性。该模型能够有效处理长序列,计算成本固定,适用于各种类似RNN的架构。
AHN是一种用于高效长上下文建模的创新神经网络架构,通过将无损内存转换为固定大小的压缩表示,结合了Transformer和RNN的优势,在长序列处理中实现高效计算和准确预测。
mlx-community
IBM Granite-4.0-H-Tiny是经过苹果硅芯片优化的混合Mamba-2/Transformer模型,采用3位量化技术,专为长上下文、高效推理和企业使用而设计。该模型结合了Mamba-2架构和专家混合技术,在保持表达能力的同时显著降低内存占用。
Qwen3-VL是Qwen系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。该版本采用混合专家模型架构,支持增强推理思维功能。
vilhess
PatchFM是一个基于Transformer架构的单变量时间序列预测基础模型,采用逐块预测方法,借鉴大语言模型的训练思想,将时间序列分割为块进行下一块预测,支持多分位数输出和不确定性估计。
jinaai
jina-reranker-v3是一款参数为0.6B的多语言文档重排器,采用创新的'最后但不迟的交互'架构,能够在多语言环境下高效准确地对文档进行重排,显著提升信息检索的相关性和效率。
samuelsimko
这是一个基于Transformer架构的预训练模型,具体功能和特性需要根据实际模型信息补充。模型支持多种下游任务,具备良好的泛化能力。
ibm-granite
Granite-4.0-H-Tiny-Base是IBM开发的仅含解码器的长上下文语言模型,采用混合专家架构,在约23万亿标记上经过四阶段训练,支持多语言文本生成和代码补全任务。
Auto Causal Inference是一个利用大型语言模型(LLM)自动进行因果推断的项目,用户只需指定处理变量和结果变量,系统就能自动完成变量角色识别、因果图构建、效应估计和模型验证等全流程分析。项目提供两种代理架构(LangGraph和MCP)来实现这一功能,特别适用于银行场景下的因果问题分析。
MockLoop MCP是全球首个AI原生的API测试平台,集成了Model Context Protocol (MCP),通过AI驱动的场景生成、自动化测试执行和智能分析能力,彻底改变了API测试方式。该平台提供5种AI提示、15种场景资源、16种测试工具和10种上下文工具,支持双端口架构和状态化测试工作流,适用于企业级合规和高级分析需求。
Brainrot MCP是一个解决AI编程会话中上下文丢失问题的模型上下文协议服务器,通过存储项目决策、待办事项和架构模式,实现跨会话的持久化记忆和智能检索。