Liquid AI推出LFM2.5-1.2B-Thinking推理模型,擁有12億參數,專爲複雜邏輯推理和數學任務設計。該模型在端側部署上實現突破,僅佔用約900MB內存,可在現代手機上完全離線運行,將兩年前需數據中心支持的推理能力成功遷移至個人移動設備。
螞蟻百靈大模型推出官方Web平臺Ling Studio,爲開發者和AI愛好者提供模型探索空間。平臺每日免費提供50萬個Token,大幅降低使用門檻。Ling Studio整合了螞蟻百靈旗下多款核心模型,包括追求極致響應速度的Ling-1T和擅長處理邏輯難題的複雜推理模型Ring-1T等。
AI聊天機器人深度介入人類情感生活,應對用戶心理危機成爲行業緊迫的倫理挑戰。近日,原OpenAI模型政策負責人安德莉亞·瓦隆內離職,追隨前上司加入競爭對手Anthropic。她在OpenAI期間負責GPT-4及下一代推理模型的安全政策,其離職凸顯了AI情感交互領域缺乏先例的倫理困境。
階躍星辰開源語音推理模型Step-Audio-R1.1在權威評測中奪冠,以96.4%準確率超越多個主流閉源模型,刷新歷史紀錄。
一個通用框架,用於在測試時調節大型推理模型的思維進度。
全球最強的編程和推理模型,提升開發效率。
崑崙萬維開源的高性能數學代碼推理模型,性能卓越
全新多模態推理模型,支持圖文輸入、文字輸出,具備高精度圖像感知與複雜推理能力。
Xai
$1.4
輸入tokens/百萬
$3.5
輸出tokens/百萬
2k
上下文長度
Openai
$7.7
$30.8
200
-
Anthropic
$7
$35
Google
$2.1
$17.5
1k
$21
$105
$0.7
$2.8
Alibaba
$1
$10
256
$6
$24
$2
$20
$4
$16
Baidu
128
Moonshot
Bytedance
$0.8
32
Deepseek
$12
Tencent
squ11z1
Hypnos i1-8B 是基於 Nous Hermes 3(Llama 3.1 8B)的專業推理模型,專注於複雜邏輯、思維鏈推理和數學問題求解。該模型在混合量子-經典機器學習領域進行了獨特探索,通過引入量子噪聲注入提升了模型的創造力和推理能力。
Intel
DeepMath是一個40億參數的數學推理模型,基於Qwen3-4B Thinking構建,結合了微調的大語言模型與沙盒化Python執行器。它能夠為計算步驟生成簡潔的Python代碼片段,顯著減少錯誤並縮短輸出長度。
Mungert
gpt-oss-safeguard-20b是基於GPT-OSS-20b微調的安全推理模型,專門用於大語言模型輸入輸出過濾、在線內容標註以及信任與安全用例的離線標註。該模型採用Apache 2.0許可證,支持自定義策略和透明決策過程。
unsloth
gpt-oss-safeguard-120b 是 OpenAI 基於 gpt-oss 構建的安全推理模型,擁有 1170 億參數(其中 51 億為活躍參數)。該模型專門針對安全用例設計,能夠根據提供的安全策略對文本內容進行分類和執行基礎安全任務。
GPT-OSS-Safeguard-20B是基於GPT-OSS構建的210億參數安全推理模型,專門針對安全相關的文本內容分類和過濾任務進行優化。該模型支持自定義安全策略,提供透明的推理過程,適用於大語言模型輸入輸出過濾、在線內容標註等安全用例。
ServiceNow-AI
Apriel-H1-15b-Thinker 是一款擁有150億參數的混合推理模型,結合了Transformer注意力機制和Mamba狀態空間層,在推理、數學和編碼等方面表現出色,具備高效性和可擴展性。
dleemiller
FineCat-NLI Large是基於tasksource/ModernBERT-large-nli模型微調的自然語言推理模型,在高質量的FineCat-NLI數據集上訓練,結合了多個優秀模型的優勢,在NLI任務中表現出色,同時保持了ModernBERT架構的高效特性。
ExaltedSlayer
這是一個基於Mistral Small 3.2構建的24B參數高效推理模型,轉換為MLX-MXFP4格式。模型具有增強的推理能力,支持多模態輸入,擁有128k上下文窗口,可在RTX 4090或32GB RAM的MacBook上運行。
Nanbeige
Nanbeige4-3B-Thinking是第四代Nanbeige大語言模型家族中的30億參數推理模型,通過提升數據質量和訓練方法實現了先進的推理能力。該模型在數學、科學、創意寫作、工具使用等多個領域表現出色,支持多階段課程學習和強化學習訓練。
Thrillcrazyer
Qwen-1.5B_THIP是基於DeepSeek-R1-Distill-Qwen-1.5B在DeepMath-103k數學數據集上使用TRL框架進行GRPO方法微調的數學推理模型。該模型專門針對數學問題解決進行了優化,具備較強的數學推理能力。
nightmedia
LFM2-8B-A1B-qx86-hi-mlx是基於MLX格式的高效推理模型,從LiquidAI/LFM2-8B-A1B轉換而來。該模型採用混合專家架構,在推理任務中表現出卓越的效率,特別擅長複雜邏輯推理任務,同時支持多語言處理。
cpatonn
Apriel-1.5-15b-Thinker是ServiceNow開發的150億參數多模態推理模型,具備文本和圖像推理能力,性能可媲美比它大10倍的模型,在人工分析指數上獲得52分,在企業領域基準測試中表現優異。
Apriel-1.5-15b-Thinker是ServiceNow Apriel SLM系列中的多模態推理模型,具有150億參數,能夠在文本和圖像推理任務上與規模大10倍的模型競爭。該模型通過中期訓練方案實現了卓越的推理能力,無需圖像SFT訓練或強化學習即可達到SOTA性能。
prithivMLmods
多拉多網絡衝浪工具擴展版是基於通義千問3-4B微調的函數調用和智能推理模型,專為網絡搜索編排、工具增強推理和動態問題解決而設計。它在智能決策、工具選擇和結構化執行流程方面表現出色。
Apriel-1.5-15b-Thinker是ServiceNow開發的多模態推理模型,擁有150億參數,在文本和圖像推理任務上表現出色,性能可與比其大10倍的模型競爭。
openai
gpt-oss-safeguard-20b是基於gpt-oss構建的安全推理模型,擁有210億參數(其中36億為活躍參數),專門針對安全用例設計。該模型可根據提供的安全策略對文本內容進行分類,並執行基礎安全任務,適用於大語言模型輸入輸出過濾、在線內容標註等場景。
gpt-oss-safeguard-120b是基於gpt-oss構建的安全推理模型,專門為安全用例設計。該模型能夠根據提供的安全策略對文本內容進行分類,並執行一系列基礎安全任務,適用於大語言模型輸入輸出過濾、在線內容標註等場景。
facebook
MobileLLM-R1是Meta發佈的高效推理模型系列,包含140M、360M和950M三種規模。該模型專門針對數學、編程和科學問題進行優化,在參數規模較小的情況下實現了與大規模模型相當甚至更優的性能。
MobileLLM-R1是Facebook推出的高效推理模型系列,專注於數學、編程和科學問題解決。該模型在僅使用約2T高質量標記進行預訓練的情況下,在多項基準測試中取得了優異性能。
MobileLLM-R1是專注於數學、編程和科學問題的高效推理模型系列,在較少訓練數據下實現出色性能,提供完整的訓練配方和數據源。
本地化運行的智能代理系統,結合推理模型與工具調用模型
eShopLite是一個基於.NET的輕量級電子商務平臺,提供語義搜索、雲平臺集成和智能推理模型等功能,幫助開發者快速構建和擴展在線商店。
一個基於Model Context Protocol (MCP)的服務器,提供對DeepSeek-R1推理能力的訪問,使非推理模型能夠通過增強的思考生成更好的響應。