OpenAI爲移動端ChatGPT應用新增“思考時長”功能,用戶可調節AI思考深度,提升複雜問題處理能力。此前安卓版僅支持快速響應的標準模式,此次更新旨在統一移動與桌面端體驗。
OpenAI更新安卓和iOS版ChatGPT應用,新增“思考時長”調節功能,用戶可靈活選擇AI思考深度。此前安卓版僅支持“標準”模式,響應快但複雜推理能力有限。更新後移動端用戶能根據需求調整,提升分析深度。
中國有色金屬行業正經歷AI驅動的深度變革。12月26日,中國有色金屬工業協會與中鋁集團聯合發佈行業首個大模型“坤安”2.0版本,標誌着礦產領域數智化轉型從試點探索邁向規模化落地。該模型不僅實現技術升級,更推動從勘探到冶煉的全鏈路智能重構,助力行業從傳統經驗模式轉向精準智能化生產。
阿里雲通義實驗室發佈Qwen Code v0.5.0版本,國產AI編程工具從命令行工具升級爲全鏈路開發生態平臺。新版本強化核心編碼能力,並突破插件集成、工程上下文理解和開發者協作支持,引入多工具協同架構,構建開發者“數字工作臺”。
免費AI音樂生成器,可將文本轉成無版權歌曲,每日贈5個免費積分。
使用先進AI生成免版稅音樂、歌曲及人聲,無需音樂技能
免費AI音樂生成器,可將文本轉8分鐘專業音樂,無版權風險
MusicAI是免費AI音樂與視頻生成器,秒將想法歌詞轉為免版權音樂
Xai
$1.4
輸入tokens/百萬
$3.5
輸出tokens/百萬
2k
上下文長度
Openai
-
Anthropic
$105
$525
200
Google
$0.7
$2.8
1k
$7
$35
$2.1
$17.5
$21
Alibaba
$1
$10
256
$6
$24
Baidu
128
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
$0.8
$0.15
$1.5
prithivMLmods
Olmo-3-7B-Instruct-AIO-GGUF是基於Allen Institute for AI開發的Olmo-3-7B-Instruct模型的GGUF量化版本。這是一個70億參數的自迴歸語言模型,通過監督微調和直接偏好優化在Tulu 2和UltraFeedback等數據集上訓練,在問答和指令遵循方面表現出色。
bartowski
這是對ai-sage的GigaChat3-10B-A1.8B模型進行的量化處理版本,採用llama.cpp的imatrix量化技術,可在不同硬件條件下更高效地運行。模型支持俄語和英語,主要用於文本生成任務。
ubergarm
這是ai-sage/GigaChat3-10B-A1.8B-bf16模型的GGUF量化版本,提供了多種量化選項,從高精度的Q8_0到極度壓縮的smol-IQ1_KT,滿足不同硬件條件下的部署需求。該模型支持32K上下文長度,採用MLA架構,專為對話場景優化。
DevQuasar
這是 ai-sage/GigaChat3-702B-A36B-preview-bf16 模型的量化版本,旨在為大眾提供免費的知識獲取途徑。該模型是一個大型語言模型,專注於文本生成任務。
evilfreelancer
這是ai-sage/GigaChat3-10B-A1.8B模型的量化版本,採用GGUF格式,需要特定的llama.cpp分支支持。模型採用混合專家架構,總參數量約118億,其中激活參數量約18億。
這是一個基於Moonshot AI技術的量化版本模型,專注於視覺語言理解與生成任務,致力於降低知識獲取門檻,讓知識為每個人所用。
TheStageAI
TheWhisper-Large-V3-Turbo 是 OpenAI Whisper Large V3 模型的高性能微調版本,由 TheStage AI 針對多平臺即時、低延遲和低功耗語音轉文本推理進行優化。支持流式轉錄、單詞時間戳和可擴展性能,適用於即時字幕、會議和設備端語音界面等場景。
TheWhisper-Large-V3是OpenAI Whisper Large V3模型的高性能微調版本,由TheStage AI針對多平臺(NVIDIA GPU和Apple Silicon)的即時、低延遲和低功耗語音轉文本推理進行了優化。
noctrex
這是慧慧AI模型Huihui-MoE-60B-A3B-abliterated的MXFP4_MOE量化版本,為文本生成提供支持。該量化版本基於特定的基礎模型進行處理,能在一定程度上優化模型的性能和使用體驗。
nvidia
NVIDIA GPT-OSS-120B Eagle3是基於OpenAI gpt-oss-120b模型的優化版本,採用混合專家(MoE)架構,具備1200億總參數和50億激活參數。該模型支持商業和非商業使用,適用於文本生成任務,特別適合AI Agent系統、聊天機器人等應用開發。
amd
Llama-3.1-8B-onnx-ryzenai-npu是由AMD基於Meta的Llama-3.1-8B模型開發的優化版本,專門針對AMD Ryzen AI NPU進行優化部署。該模型通過Quark量化、OGA模型構建器和NPU專用後處理技術,在保持高質量文本生成能力的同時,顯著提升了在AMD硬件上的推理效率。
geoffmunn
這是Qwen/Qwen3-0.6B語言模型的GGUF量化版本,一個擁有6億參數的緊湊大語言模型,專為在低資源設備上進行超快速推理而設計。支持llama.cpp、LM Studio、OpenWebUI和GPT4All等框架,可在任何地方離線使用私有AI。
mradermacher
ConfTuner-Ministral是基於Mistral架構的量化大語言模型,專門針對可信賴AI場景進行微調,支持文本生成和置信度估計功能。該模型提供了多種量化版本,適用於不同資源約束環境。
這是 liushiliushi/ConfTuner-Ministral 模型的靜態量化版本,適用於文本生成和置信度估計任務。該模型基於 Mistral 架構,經過微調以提供可信賴的AI輸出,支持多種量化級別以滿足不同硬件需求。
NVIDIA Qwen2.5-VL-7B-Instruct-FP4是阿里巴巴Qwen2.5-VL-7B-Instruct模型的量化版本,採用優化的Transformer架構,支持多模態輸入(文本和圖像),適用於多種AI應用場景。該模型通過TensorRT Model Optimizer進行FP4量化,在NVIDIA GPU上提供高效的推理性能。
NVIDIA Qwen3-32B FP4模型是阿里巴巴Qwen3-32B模型的量化版本,使用優化的Transformer架構,對權重和激活進行FP4量化,適合用於AI智能體系統、聊天機器人、RAG系統等AI應用。
NVIDIA Qwen3-32B FP4模型是阿里雲Qwen3-32B模型的量化版本,使用優化的Transformer架構,通過將權重和激活量化為FP4數據類型實現高效推理。該模型支持商業和非商業用途,適用於各種AI應用場景。
這是NVIDIA對阿里巴巴Qwen3-14B模型進行FP8量化後的版本,採用優化的Transformer架構,支持131K上下文長度,適用於多種AI應用場景。
NVIDIA Qwen3-14B FP4模型是阿里巴巴Qwen3-14B模型的量化版本,採用FP4數據類型進行優化,通過TensorRT-LLM進行高效推理。該模型專為NVIDIA GPU加速系統設計,適用於AI Agent系統、聊天機器人、RAG系統等多種AI應用場景,支持全球範圍內的商業和非商業使用。
NVIDIA Qwen3-8B FP4 模型是阿里巴巴Qwen3-8B模型的量化版本,採用優化的Transformer架構的自迴歸語言模型。該模型使用FP4量化技術,在保持性能的同時顯著減少內存佔用和計算需求,適用於AI智能體系統、聊天機器人、RAG系統等應用場景。
Context7 MCP是一個為AI編程助手提供即時、版本特定文檔和代碼示例的服務,通過Model Context Protocol直接集成到提示中,解決LLM使用過時信息的問題。
Awesome MCP Servers 是一個全面的Model Context Protocol (MCP)服務器集合,涵蓋了7158個MCP服務器,分為33個類別,包括AI集成、藝術媒體、瀏覽器自動化、雲服務、數據庫、開發者工具、文件系統、金融、遊戲、硬件、醫療、基礎設施、知識管理、位置地圖、市場營銷、監控、多媒體處理、操作系統、項目管理、科學研究、安全、社交媒體、旅行交通、實用工具和版本控制等。
SDKMAN交互式命令行工具,提供瀏覽、篩選和安裝SDK的便捷界面,支持所有SDKMAN候選版本,可集成AI助手通過自然語言管理開發環境。
Mobi MCP Server是一個基於Model Context Protocol的服務,用於實現AI模型與Mobi知識管理平臺的交互,提供搜索、數據檢索、內容創建和版本控制等功能。
一個為Claude AI提供IaC組件持久化存儲和版本追蹤的MCP服務器
一個基於TypeScript的MCP服務器,通過WebSocket連接控制Minecraft基岩版,提供玩家控制、世界操作、建築工具等功能,支持與MCP客戶端集成實現AI自動化。
Hex MCP Server是一個為AI工具(如Cursor)提供即時Hex包版本信息的服務,確保在Elixir項目中添加依賴時使用正確且最新的包版本。
Awesome MCP Servers是一個精選的Model Context Protocol (MCP)服務器列表,涵蓋了瀏覽器自動化、藝術與文化、雲平臺、命令行、通信、客戶數據平臺、數據庫、開發者工具、文件系統、金融科技、知識與記憶、位置服務、監控、搜索、安全、旅行與交通、版本控制等多種工具和集成。MCP是一個開放協議,使AI模型能夠通過標準化的服務器實現安全地與本地和遠程資源交互。
該項目是基於UnityMCP的改進版本,專注於通過AI輔助開發VRChat世界,提供了增強的命令執行、編輯器集成、腳本測試和性能優化等功能,特別支持UdonSharp腳本生成。
JupyterMCP是一個將Jupyter Notebook與Claude AI通過Model Context Protocol (MCP)集成的工具,支持雙向通信、單元格操作、代碼執行等功能,僅兼容Jupyter Notebook 6.x版本。
MCP Neo4j知識圖譜記憶服務器是基於Neo4j圖數據庫的增強版記憶存儲系統,為AI助手提供高性能的知識圖譜存儲和檢索能力。
Letta MCP Server Railway版是一個專為雲部署優化的HTTP傳輸MCP服務器,可讓AI客戶端無縫連接Letta.ai的強大狀態代理,支持一鍵部署到Railway平臺,提供20+個代理管理、對話、記憶管理和監控工具。
一個為Dart/Flutter官方包倉庫pub.dev設計的MCP服務器,提供包搜索、信息檢索、版本管理、文檔訪問等功能,支持AI助手高效獲取包數據。
Agent Knowledge MCP是一個全面的知識管理解決方案,集成了Elasticsearch搜索、文件操作、文檔驗證和版本控制功能,為AI助手提供強大的知識管理能力。
一個MCP服務器項目,支持AI助手與macOS版ChatGPT桌面應用交互,實現跨應用指令發送與響應獲取。
Liquidsoap MCP服務器為AI助手提供準確的Liquidsoap 2.4.0文檔和代碼生成支持,解決LLM因版本混淆導致的錯誤,確保腳本編寫和問題診斷的可靠性。
這是一個將Python版MySQL MCP服務器轉換為Java實現的項目,提供安全的MySQL數據庫交互接口,允許AI助手通過受控方式訪問數據庫資源。
mcpn.ai 是一個幫助用戶創建、組織和分享AI工作流和提示的工具,類似於一個動態提示庫,可以跨MCP工具和服務器共享和版本控制。
基於MCP協議的HTTP服務器,提供AGENTS.md知識管理、結構化任務跟蹤、版本歷史記錄和臨時工作區功能,支持多用戶協作和AI子代理調用