騰訊2025年第三季度財報顯示,總收入1928.7億元,同比增長15%。ToB業務表現突出,營收582億元,增長10%。AI技術需求推動雲服務和微信小店技術服務成爲增長關鍵。混元大模型在權威榜單中保持領先,彰顯騰訊AI戰略成效。
騰訊2023年Q3財報顯示,儘管營收利潤增長,但資本開支低於預期,引發AI項目關注。總裁劉熾平解釋稱,GPU儲備充足,能滿足內部需求,特別是支持“元寶”項目。
OpenAI領投Red Queen Bio公司1500萬美元種子輪融資,旨在防範AI技術被濫用於生物武器製造。該公司致力於提升AI防禦能力以應對潛在威脅,這是OpenAI在風險管控領域的又一佈局,此前還曾投資生物安全軟件公司Val。
騰訊三季度營收1928.7億元,同比增15%;經營利潤725.7億元,增18%。核心業務與AI協同,各板塊雙位數增長:增值服務收入958.6億元(增16%),遊戲業務增22.8%;營銷服務收入362.4億元(增21%),受益AI與微信生態。
Questie AI是帶即時語音聊天的終極AI遊戲伴侶,提供多樣娛樂體驗。
開源免費的 Wispr Flow 替代方案,為中文用戶打造的桌面端語音輸入與文本處理工具。
MixHub AI是一個集成GPT-5、Flux、Claude、Qwen Image、Kling、Hailuo等多種AI模型的一體化平臺。
全方位家居服務管理工具,幫助承包商贏得更多工作。
alibaba
$0.72
輸入tokens/百萬
輸出tokens/百萬
128k
上下文長度
$2.16
-
131.1k
deepseek
$3.6
$15.48
$0.86
$1.3
32k
$1.08
$1.44
32.8k
$0.8
$16
$2.52
$2.88
DavidAU
這是一個增強版的多模態視覺語言模型,基於Qwen3-VL-8B-Thinking模型,通過Brainstorm 20x技術擴展至12B參數,採用NEO Imatrix增強的GGUF量化。模型具備強大的圖像理解、文本生成和多模態推理能力,在視覺感知、文本質量和創意場景方面都有顯著提升。
geoffmunn
這是Qwen/Qwen3-Coder-30B-A3B-Instruct語言模型的GGUF量化版本,專門針對代碼生成和編程任務優化,採用FP32精度轉換,適用於本地推理部署。
cemoss17
nutrient-gram-qwen-3-vl-2b是基於Qwen/Qwen3-VL-2B-Instruct的微調版本,使用TRL進行監督微調訓練,主要用於文本生成任務。該模型在保持原有多模態能力的基礎上,針對特定任務進行了優化。
mradermacher
UME-R1-7B的靜態量化版本,支持句子相似度、嵌入、零樣本圖像分類、視頻文本到文本等多任務。提供多種量化類型以滿足不同需求,從輕量級Q2_K到高質量Q8_0版本。
unsloth
Qwen3-Coder-REAP-363B-A35B是通過REAP方法對Qwen3-Coder-480B-A35B-Instruct進行25%專家剪枝得到的稀疏混合專家模型,在保持接近原模型性能的同時顯著降低了參數規模和內存需求,特別適用於資源受限的代碼生成和智能編碼場景。
ggml-org
這是一個基於Qwen3-VL-30B-A3B-Instruct模型轉換的GGUF格式版本,專門為llama.cpp優化。該模型是一個300億參數的多模態視覺語言模型,支持圖像理解和文本生成任務。
inferencerlabs
Qwen3-Coder-480B-A35B-Instruct是一個4800億參數的大型代碼生成模型,支持8.5bit量化,基於MLX框架優化。該模型專門針對代碼生成任務設計,在配備足夠內存的設備上能夠高效運行。
tlennon-ie
Qwen-Edit-Skin是基於Qwen/Qwen-Image-Edit-2509模型微調的LoRA模型,專注於提升圖像中人物皮膚的真實感與細節,生成更自然、細膩的皮膚紋理。
noctrex
這是一個基於Qwen3-VL-30B的量化版本模型,專門用於圖像文本到文本的轉換任務。該模型通過量化技術優化了原始模型,提供了更高效的推理解決方案。
Qwen3-VL是通義系列中最強大的視覺語言模型,具備卓越的文本理解與生成能力、深入的視覺感知與推理能力、長上下文支持、強大的空間和視頻動態理解能力以及出色的智能體交互能力。
這是慧慧Qwen3-VL-8B思維消融模型的量化版本,基於Qwen3-VL-8B架構,專門針對圖像文本轉換任務進行了優化和量化處理,可通過llama.cpp工具高效運行。
慧慧Qwen3-VL-8B指令消融模型的量化版本,專門用於圖像文本到文本的轉換任務。該模型基於Qwen3-VL-8B架構,經過指令消融優化和量化處理,可在保持性能的同時降低計算資源需求。
慧慧Qwen3-VL-4B思維消除模型的量化版本,基於Qwen3-VL-4B模型進行優化,專門設計用於消除思維鏈推理過程,可搭配最新的llama.cpp使用,提供高效的圖像文本轉文本處理能力。
Qwen3-VL-32B-Thinking是Qwen系列中最強大的視覺語言模型,具備卓越的文本理解與生成能力、深入的視覺感知與推理能力、長上下文處理、空間和視頻動態理解能力,以及出色的智能體交互能力。
Qwen3-VL-8B-Thinking是通義千問系列中最強大的視覺語言模型,具備卓越的文本理解與生成能力、深入的視覺感知與推理能力、長上下文支持、強大的空間和視頻動態理解能力,以及出色的智能體交互能力。
Qwen3-VL是通義系列中最強大的視覺語言模型,在文本理解與生成、視覺感知與推理、上下文長度、空間和視頻動態理解以及智能體交互能力等方面全面升級。該模型提供密集架構和混合專家架構,支持從邊緣設備到雲端的靈活部署。
Qwen3-VL是Qwen系列中最強大的視覺語言模型,實現了全方位的綜合升級,包括卓越的文本理解與生成能力、更深入的視覺感知與推理能力、更長的上下文長度、增強的空間和視頻動態理解能力,以及更強的智能體交互能力。
peteromallet
QwenEdit InScene LoRAs是基於QwenEdit微調的模型組,專注於增強基於場景參考生成圖像的能力。包含InScene主模型和InScene Annotate兩個組件,能夠在保持角色一致性和場景連貫性的同時創建全新的場景鏡頭。
本項目是對Qwen3-Coder-30B-A3B-Instruct模型進行MXFP4_MOE量化的成果,將上下文大小從256k擴展到1M,為代碼生成和編程任務提供了更優化的模型版本,具有提升性能和節省資源的價值。
lmstudio-community
Qwen3-VL-2B-Thinking是由Qwen推出的視覺語言模型,基於2B參數規模,使用MLX進行8位量化,專門針對Apple Silicon芯片進行了優化。該模型支持圖像和文本的多模態理解與生成任務。
AWS MCP是一個基於Model Context Protocol的服務,允許通過自然語言查詢和管理AWS資源,類似於Amazon Q的替代方案。
QueryWeaver是一個開源的Text2SQL工具,通過圖驅動的模式理解將自然語言問題轉換為SQL查詢,支持REST API和MCP協議。
Quick-start Auto MCP是一個幫助用戶快速在Claude Desktop和Cursor中註冊Anthropic模型上下文協議(MCP)的工具,提供RAG文檔搜索、Dify工作流、即時網絡搜索等功能,支持一鍵生成JSON配置文件。
該項目提供了一系列基於Quarkus/Java的Model Context Protocol服務器,用於擴展支持MCP的LLM應用功能,包含JDBC數據庫交互、JVM監控、文件系統操作等多種服務。
一個基於Qdrant向量數據庫的文檔語義搜索服務,支持URL和本地文件導入,提供自然語言查詢功能。
Quarkus Model Context Protocol (MCP) Server是一個開源協議服務器,支持通過聲明式和編程式API輕鬆集成LLM應用與外部數據源和工具。
智慧鍛造是一個強大的知識管理系統,通過Qdrant向量數據庫高效存儲和檢索經驗、見解與最佳實踐。
一個基於MCP協議的JavaScript安全執行服務
定性研究知識圖譜管理服務器,提供研究項目、參與者、訪談、編碼和主題的結構化表示與管理工具
一個基於Google Gemini API的異步對話AI服務,通過Redis隊列處理請求,提供MCP協議兼容的API接口。
一個通過Legion Query Runner和MCP協議幫助用戶訪問和查詢數據庫的服務器工具
QualisMcp是一個基於Model Context Protocol (MCP)框架的巴西學術期刊評估系統,用於高效檢索和管理2017-2020年期間的事件分類信息。
一個用於訪問法國國家圖書館Gallica數字資源的MCP服務器,支持搜索和自動生成研究報告
VibeCheck Web測試工具是一個AI驅動的網頁測試代理,通過MCP協議集成到AI編程助手(如GitHub Copilot、Cursor等)中,實現自動化測試錄製、執行和發現。它利用Playwright控制瀏覽器,支持自然語言描述生成測試腳本,執行迴歸測試,並自動發現潛在測試步驟,提高開發效率和測試準確性。
一個利用Groq API調用Qwen模型的鏈式思考MCP服務器,通過外部思考工具提升AI處理複雜任務的能力。
一個基於Qdrant向量數據庫和OpenAI嵌入的語義搜索服務
一個基於mcp-agent和qwen的網頁摘要代理工具,可在Windows環境下運行,通過uv創建虛擬環境並配置API密鑰來使用。
BMAD-MCP是一個基於Model Context Protocol的敏捷開發工作流編排器,通過PO→架構師→SM→開發→評審→QA六個階段管理完整開發流程,支持動態引擎選擇和交互式需求澄清,確保交付質量。
量子模擬器MCP服務器是一個Docker鏡像,提供量子電路模擬功能,支持MCP協議與客戶端集成。
一個基於TypeScript的MCP服務器,提供與Qase測試管理平臺的集成功能,支持管理項目、測試用例、測試運行等多種實體。