在Alpha Arena 1.5賽季中,xAI的Grok4.20模型以12.11%的回報率奪冠,將1萬美元在14天內增值至12,193美元,成爲唯一盈利的大型語言模型。同期GPT-51和Gemini3.0分別虧損3.4%和5.7%。比賽採用無人干預規則,模型需在“苦行僧模式”(高槓杆限制)和“情境感知模式”(可查看對手持倉)下自動交易。
谷歌雲與Replit達成戰略合作,將Claude 3.5 Sonnet和Gemini 1.5 Flash集成至Replit Agent,推出“氛圍編程”解決方案,對標亞馬遜支持的Anthropic Claude Code。雙模型分工明確:Claude負責戰略架構與複雜系統設計,Gemini專精快速代碼補全。該方案基於Vertex AI運行,可自動切換模型,爲企業提供一站式編程服務。
Chatbase創始人Yasser宣佈,其AI客服平臺年經常性收入突破800萬美元,完全自籌資金,未接受VC投資。目前每30分鐘新增約1.5萬美元訂閱收入,付費企業客戶超1萬家。該產品從2021年作爲副業起步,首月收入2000美元,到2023年功能擴展後ARR突破百萬美元。
ICLR 2026 審稿系統遭 AI 大規模滲透:檢測顯示 7.6 萬份評審中,21% 完全由大模型生成,35% 被 AI 潤色,僅 43% 爲純人類撰寫。機器評審更長、打分虛高,卻頻現“幻覺引用”等錯誤,引發作者集體抗議。組委會緊急發佈嚴格禁令,擬從投稿端封殺 AI 生成內容以重建信任。
一種通過文本迷宮解決任務來增強大型語言模型視覺推理能力的創新方法
一個基於強化學習優化的大型語言模型,專注於數學問題解決能力的提升。
Doubao-1.5-pro 是一個高性能的稀疏 MoE 大語言模型,專注於推理性能與模型能力的極致平衡。
DeepSeek-R1-Distill-Qwen-1.5B 是一款高效推理的開源語言模型,適用於多種自然語言處理任務。
Google
$0.7
輸入tokens/百萬
$2.8
輸出tokens/百萬
1k
上下文長度
Anthropic
$7
$35
200
$2.1
$17.5
$21
$105
Alibaba
-
Bytedance
$0.8
$2
256
128
$0.15
$1.5
$8
32
Chatglm
$16
jayn7
騰訊混元視頻1.5模型的量化GGUF版本,專門用於文本到視頻生成任務,支持720P高清視頻生成,提供多種量化精度版本以優化使用效率。
本項目提供騰訊混元視頻1.5文本到視頻模型的量化GGUF版本,支持480P視頻生成任務,包含蒸餾模型和完整模型兩個版本,可與ComfyUI-GGUF等工具配合使用。
騰訊混元視頻1.5模型的量化GGUF版本,專門用於圖像轉視頻和視頻生成任務。提供480P分辨率的蒸餾模型和標準模型,支持多種量化精度,包括Q4_K_S、Q8_0和FP16等。
tencent
混元視頻-1.5是一款輕量級高性能視頻生成模型,僅用83億參數就能提供頂級的視頻質量,顯著降低了使用門檻。它能在消費級GPU上流暢運行,支持文本到視頻和圖像到視頻生成,讓每個開發者和創作者都能輕鬆使用。
MaziyarPanahi
VibeThinker-1.5B-GGUF 是 WeiboAI/VibeThinker-1.5B 模型的 GGUF 量化版本,由 MaziyarPanahi 進行量化處理。該模型是一個 1.5B 參數的文本生成模型,支持多種量化級別(2位到8位),便於在各種硬件上高效運行。
noctrex
本項目是卡納娜1.5-15.7B-A3B指令模型的MXFP4_MOE量化版本,可在特定場景下提升模型的運行效率。該模型基於kakaocorp/kanana-1.5-15.7b-a3b-instruct進行優化,採用混合專家架構和MXFP4量化技術。
Tarka-AIR
Tarka-Embedding-150M-V1是一個具有1.5億參數的嵌入模型,可生成768維的密集文本表示。它針對語義相似性、搜索和檢索增強生成(RAG)等多種下游應用進行了優化,專注於捕捉深層上下文語義,以支持跨不同領域的通用文本理解。
AbstractPhil
這是一個實驗性的Stable Diffusion 1.5蒸餾模型,採用v-預測流匹配方法和幾何引導的自適應塊加權技術。目前處於研究階段,訓練正在進行中,結果尚未驗證。
Kwai-Keye
快手Keye-VL是由快手Keye團隊打造的前沿多模態大語言模型,在視頻理解、視覺感知和推理任務中表現卓越。1.5版本通過創新的快慢視頻編碼策略、LongCoT冷啟動數據管道和強化學習訓練策略,在視頻理解、圖像感知和推理能力上達到新高度,支持長達128k標記的擴展上下文長度。
tensorblock
Arch-Router-1.5B 是一個專門用於大語言模型路由和偏好選擇的1.5B參數模型,基於transformers庫構建,採用katanemo-research許可證發佈。該模型能夠智能地將用戶查詢路由到最適合的大語言模型進行處理。
mradermacher
這是Veri - Code/ReForm - SFT - 1.5B模型的靜態量化版本,專為代碼生成、強化學習和形式驗證等任務優化,提供多種量化類型選擇,顯著提升推理效率。
bartowski
NVIDIA OpenReasoning - Nemotron - 1.5B的量化版本,通過llama.cpp工具優化,提升在不同硬件上的運行效率和性能。
Mungert
Kanana 1.5 是 Kanana 模型系列的新版本,在編碼、數學和函數調用能力方面有顯著提升,能夠處理長達32K個令牌的輸入,使用YaRN時可處理多達128K個令牌。
katanemo
Arch-Router是一個1.5B參數的偏好對齊路由框架模型,用於將查詢映射到領域-操作偏好以進行模型路由決策。
facebook
MobileLLM-ParetoQ是一個專為移動設備優化的極低比特大語言模型量化框架,支持1位、1.58位、2位、3位和4位量化設置,在保持高性能的同時顯著降低資源消耗。
GSAI-ML
LLaDA 1.5是一款通過方差縮減偏好優化(VRPO)方法訓練的大型擴散語言模型,專注於提升文本生成的質量和效率。
kakaocorp
Kanana 1.5是Kakao開發的雙語大語言模型,在編程、數學和函數調用能力方面有顯著提升,支持32K tokens上下文長度,通過YaRN擴展技術可處理128K tokens超長文本。
Kanana 1.5是Kanana模型家族的新版本,在編碼、數學和函數調用能力方面相比前代有顯著提升,支持32K tokens長度並可擴展至128K tokens。
mlx-community
基於Qwen2架構的1.5B參數規模的中英雙語通用文本嵌入模型,專注於句子相似度計算和文本檢索任務。
aiyouthalliance
基於Stable Diffusion 1.5構建的免費文生圖模型,通過多個LoRA模塊微調,生成的圖像遵循CC0許可協議,可免費商用無需署名。
基於Google Gemini 1.5 Pro模型的內容智能摘要服務
該項目是一個基於Gemini Flash 1.5 API的MCP服務器實現,通過中央路由器協調多個模塊化AI服務(如聊天、搜索、RAG、深度推理等),實現智能化的請求分發和響應處理。
一個基於Gemini Flash 1.5 API的MCP服務器實現,通過中央路由器協調多個模塊化AI服務(聊天、搜索、RAG、深度推理等),實現智能化的請求分發和響應整合。