肯德基推出AI點餐助手“小K”,基於阿里通義千問大模型,結合RAG技術,實現自然語言理解和多輪對話。用戶可直接輸入需求,如“10人開會、預算350元”,系統將智能推薦套餐,簡化點餐流程,提升體驗。
阿里通義千問團隊推出Qwen3.5小型模型系列,包括0.8B、2B、4B、9B四款輕量級模型及對應基礎版本。它們基於統一架構,具備原生多模態能力(支持圖像-文本處理),結構改進且強化學習訓練可擴展,能以更少計算資源實現更高智能水平。其中0.8B和2B模型極致小巧、推理極快,專爲邊緣設備優化。
阿里通義實驗室推出Qwen3.5系列小尺寸模型,包括0.8B、2B、4B和9B四種參數規模。這些模型基於統一基座研發,主打輕量級和高適應性,旨在降低AI應用門檻,實現從端側設備到垂直場景的低成本高效落地。
國產大模型在全球開源和消費市場加速發展。阿里雲春節期間密集佈局,通義千問家族確立全球AI生態領先地位,標誌着AI深度融入國民生活。其技術實力突出,Qwen 3.5在Hugging Face榜單表現強勢,開源策略持續釋放影響力。
Qwen2.5-Omni 是阿里雲通義千問團隊開發的端到端多模態模型,支持文本、音頻、圖像、視頻輸入。
Wan是阿里巴巴通義實驗室開發的先進視覺生成模型,可基於文本、圖像等生成視頻。
Alibaba
$1
輸入tokens/百萬
$10
輸出tokens/百萬
256
上下文長度
-
$2
$20
$4
$16
1k
$8
$240
52
$3.9
$15.2
64
$0.8
128
$54
$163
$1.6
$0.75
noctrex
這是阿里巴巴通義深度研究30B-A3B模型的量化版本,採用MXFP4_MOE量化技術並額外添加imatrix量化,旨在優化模型性能和資源使用效率,適用於文本生成任務。
DevQuasar
本項目是阿里巴巴通義深度研究30B模型的A3B量化版本,旨在通過量化技術降低模型部署成本,讓知識為每個人所用。該模型基於30B參數規模的大語言模型進行優化,保持了原模型的強大能力同時提升了推理效率。
TIGER-Lab
Qwen2.5-VL-7B-Instruct是阿里巴巴通義千問團隊開發的多模態視覺語言模型,基於70億參數規模,專門針對視覺問答任務進行優化訓練。該模型能夠理解和分析圖像內容,並生成準確的自然語言回答。
geoffmunn
這是Qwen/Qwen3-4B語言模型的GGUF量化版本,由阿里巴巴通義系列開發的40億參數大語言模型,專為消費級硬件設計,支持強大推理、智能體工作流和多語言交互。
lmstudio-community
Qwen3-Next-80B-A3B-Instruct是阿里雲通義千問團隊開發的大規模語言模型,經過MLX框架4位量化優化,專門針對蘋果芯片設備進行了性能優化,提供高效的推理能力。
unsloth
Qwen3-Next-80B-A3B-Instruct是阿里巴巴通義千問團隊開發的最新一代大型語言模型,採用創新的混合注意力機制和高稀疏專家混合架構,在保持80B總參數的同時僅激活3B參數,實現了高效的上下文建模和推理加速,原生支持262K上下文長度並可擴展至1M令牌。
Loke-60000
Qwen3-4B-Instruct是阿里巴巴通義千問團隊開發的40億參數指令微調大語言模型,基於Qwen3架構優化,專門針對對話和指令跟隨任務進行訓練,具備強大的文本生成和理解能力。
Qwen3-30B-A3B-Instruct-2507是阿里巴巴通義千問團隊推出的300億參數大語言模型,專門針對指令跟隨任務進行了優化。該模型支持文本生成、對話交互等多種自然語言處理任務,並通過LM Studio社區模型計劃向開發者開放使用。
huynguyendbs
Qwen3-Embedding-8B是阿里巴巴通義千問團隊開發的80億參數文本嵌入模型,基於MLX庫優化實現,專門用於句子相似度計算和文本特徵提取任務。
Alibaba-NLP
基於ModernBERT預訓練架構的英語文本重排序模型,由阿里巴巴通義實驗室開發,支持8192 tokens長文本處理。
ThomasBaruzier
Qwen2.5-72B-Instruct是阿里巴巴通義千問團隊開發的大規模語言模型,擁有727億參數。該模型在知識理解、編碼能力、數學推理和多語言支持方面有顯著提升,支持長達128K標記的上下文長度,能夠生成最多8K標記的內容。
ali-vilab
阿里巴巴通義實驗室開發的開源視頻合成代碼庫,集成了多種先進的視頻生成模型
Supabase
GTE-small是由阿里巴巴達摩院訓練的通用文本嵌入模型,基於BERT框架,適用於信息檢索、語義文本相似度等任務。
基於TypeScript的MCP服務器,集成阿里雲通義萬相的文生圖和文生視頻API,支持異步任務處理和MCP協議規範