在Alpha Arena 1.5赛季中,xAI的Grok4.20模型以12.11%的回报率夺冠,将1万美元在14天内增值至12,193美元,成为唯一盈利的大型语言模型。同期GPT-51和Gemini3.0分别亏损3.4%和5.7%。比赛采用无人干预规则,模型需在“苦行僧模式”(高杠杆限制)和“情境感知模式”(可查看对手持仓)下自动交易。
谷歌云与Replit达成战略合作,将Claude 3.5 Sonnet和Gemini 1.5 Flash集成至Replit Agent,推出“氛围编程”解决方案,对标亚马逊支持的Anthropic Claude Code。双模型分工明确:Claude负责战略架构与复杂系统设计,Gemini专精快速代码补全。该方案基于Vertex AI运行,可自动切换模型,为企业提供一站式编程服务。
Chatbase创始人Yasser宣布,其AI客服平台年经常性收入突破800万美元,完全自筹资金,未接受VC投资。目前每30分钟新增约1.5万美元订阅收入,付费企业客户超1万家。该产品从2021年作为副业起步,首月收入2000美元,到2023年功能扩展后ARR突破百万美元。
ICLR 2026 审稿系统遭 AI 大规模渗透:检测显示 7.6 万份评审中,21% 完全由大模型生成,35% 被 AI 润色,仅 43% 为纯人类撰写。机器评审更长、打分虚高,却频现“幻觉引用”等错误,引发作者集体抗议。组委会紧急发布严格禁令,拟从投稿端封杀 AI 生成内容以重建信任。
一种通过文本迷宫解决任务来增强大型语言模型视觉推理能力的创新方法
一个基于强化学习优化的大型语言模型,专注于数学问题解决能力的提升。
Doubao-1.5-pro 是一个高性能的稀疏 MoE 大语言模型,专注于推理性能与模型能力的极致平衡。
DeepSeek-R1-Distill-Qwen-1.5B 是一款高效推理的开源语言模型,适用于多种自然语言处理任务。
Google
$0.7
输入tokens/百万
$2.8
输出tokens/百万
1k
上下文长度
Anthropic
$7
$35
200
$2.1
$17.5
$21
$105
Alibaba
-
Bytedance
$0.8
$2
256
128
$0.15
$1.5
$8
32
Chatglm
$16
jayn7
腾讯混元视频1.5模型的量化GGUF版本,专门用于文本到视频生成任务,支持720P高清视频生成,提供多种量化精度版本以优化使用效率。
本项目提供腾讯混元视频1.5文本到视频模型的量化GGUF版本,支持480P视频生成任务,包含蒸馏模型和完整模型两个版本,可与ComfyUI-GGUF等工具配合使用。
腾讯混元视频1.5模型的量化GGUF版本,专门用于图像转视频和视频生成任务。提供480P分辨率的蒸馏模型和标准模型,支持多种量化精度,包括Q4_K_S、Q8_0和FP16等。
tencent
混元视频-1.5是一款轻量级高性能视频生成模型,仅用83亿参数就能提供顶级的视频质量,显著降低了使用门槛。它能在消费级GPU上流畅运行,支持文本到视频和图像到视频生成,让每个开发者和创作者都能轻松使用。
MaziyarPanahi
VibeThinker-1.5B-GGUF 是 WeiboAI/VibeThinker-1.5B 模型的 GGUF 量化版本,由 MaziyarPanahi 进行量化处理。该模型是一个 1.5B 参数的文本生成模型,支持多种量化级别(2位到8位),便于在各种硬件上高效运行。
noctrex
本项目是卡纳娜1.5-15.7B-A3B指令模型的MXFP4_MOE量化版本,可在特定场景下提升模型的运行效率。该模型基于kakaocorp/kanana-1.5-15.7b-a3b-instruct进行优化,采用混合专家架构和MXFP4量化技术。
Tarka-AIR
Tarka-Embedding-150M-V1是一个具有1.5亿参数的嵌入模型,可生成768维的密集文本表示。它针对语义相似性、搜索和检索增强生成(RAG)等多种下游应用进行了优化,专注于捕捉深层上下文语义,以支持跨不同领域的通用文本理解。
AbstractPhil
这是一个实验性的Stable Diffusion 1.5蒸馏模型,采用v-预测流匹配方法和几何引导的自适应块加权技术。目前处于研究阶段,训练正在进行中,结果尚未验证。
Kwai-Keye
快手Keye-VL是由快手Keye团队打造的前沿多模态大语言模型,在视频理解、视觉感知和推理任务中表现卓越。1.5版本通过创新的快慢视频编码策略、LongCoT冷启动数据管道和强化学习训练策略,在视频理解、图像感知和推理能力上达到新高度,支持长达128k标记的扩展上下文长度。
tensorblock
Arch-Router-1.5B 是一个专门用于大语言模型路由和偏好选择的1.5B参数模型,基于transformers库构建,采用katanemo-research许可证发布。该模型能够智能地将用户查询路由到最适合的大语言模型进行处理。
mradermacher
这是Veri - Code/ReForm - SFT - 1.5B模型的静态量化版本,专为代码生成、强化学习和形式验证等任务优化,提供多种量化类型选择,显著提升推理效率。
bartowski
NVIDIA OpenReasoning - Nemotron - 1.5B的量化版本,通过llama.cpp工具优化,提升在不同硬件上的运行效率和性能。
Mungert
Kanana 1.5 是 Kanana 模型系列的新版本,在编码、数学和函数调用能力方面有显著提升,能够处理长达32K个令牌的输入,使用YaRN时可处理多达128K个令牌。
katanemo
Arch-Router是一个1.5B参数的偏好对齐路由框架模型,用于将查询映射到领域-操作偏好以进行模型路由决策。
facebook
MobileLLM-ParetoQ是一个专为移动设备优化的极低比特大语言模型量化框架,支持1位、1.58位、2位、3位和4位量化设置,在保持高性能的同时显著降低资源消耗。
GSAI-ML
LLaDA 1.5是一款通过方差缩减偏好优化(VRPO)方法训练的大型扩散语言模型,专注于提升文本生成的质量和效率。
kakaocorp
Kanana 1.5是Kakao开发的双语大语言模型,在编程、数学和函数调用能力方面有显著提升,支持32K tokens上下文长度,通过YaRN扩展技术可处理128K tokens超长文本。
Kanana 1.5是Kanana模型家族的新版本,在编码、数学和函数调用能力方面相比前代有显著提升,支持32K tokens长度并可扩展至128K tokens。
mlx-community
基于Qwen2架构的1.5B参数规模的中英双语通用文本嵌入模型,专注于句子相似度计算和文本检索任务。
aiyouthalliance
基于Stable Diffusion 1.5构建的免费文生图模型,通过多个LoRA模块微调,生成的图像遵循CC0许可协议,可免费商用无需署名。
基于Google Gemini 1.5 Pro模型的内容智能摘要服务
一个基于Gemini Flash 1.5 API的MCP服务器实现,通过中央路由器协调多个模块化AI服务(聊天、搜索、RAG、深度推理等),实现智能化的请求分发和响应整合。
该项目是一个基于Gemini Flash 1.5 API的MCP服务器实现,通过中央路由器协调多个模块化AI服务(如聊天、搜索、RAG、深度推理等),实现智能化的请求分发和响应处理。