上海人工智能實驗室發佈並開源萬億參數科學多模態大模型“書生 Intern-S1-Pro”,基於“通專融合”架構 SAGE 打造,刷新開源社區參數規模紀錄,在多項科學能力上實現突破,綜合學科評測穩居 AI4S 領域國際前列。
上海AI實驗室發佈全球最大開源科學多模態模型“書生 Intern-S1-Pro”,參數達1萬億。該模型基於“通專融合”架構SAGE,在科學能力上達到國際領先水平,尤其在複雜學科評測中展現出卓越的邏輯推理能力。
Stack Overflow推出企業級產品Stack Internal,通過MCP接口提供技術問答元數據及可靠性評分,幫助AI代理避免生成錯誤信息。CEO透露已有大型客戶付費使用,商業模式類似Reddit的內容授權。
上海AI實驗室開源發佈多模態大模型InternVL3.5,採用級聯強化學習、動態視覺分辨率路由等創新技術,實現推理能力、部署效率和通用性能全面提升。該模型提供1B至241B全量級版本,刷新開源模型性能標杆,在多任務上達到領先水平。
Super Intern是群聊中的AI隊友,可提醒、答疑、創作,讓對話流暢。
InternVL3開源:7種尺寸覆蓋文、圖、視頻處理,多模態能力擴展至工業圖像分析
InternLM3 是一個專注於文本生成的模型集合,提供多種優化版本以滿足不同需求。
這是一個先進的多模態大型語言模型系列,展示了卓越的整體性能。
Shanghai-ai-lab
$2
輸入tokens/百萬
-
輸出tokens/百萬
8
上下文長度
bartowski
JanusCoderV-7B是由InternLM開發的7B參數代碼生成模型,本項目提供了使用llama.cpp進行imatrix量化的多個版本,支持多種量化級別以滿足不同硬件需求。
這是internlm的JanusCoder-14B模型的量化版本,使用特定工具和數據集進行量化處理,提供了從低質量到高質量的多種量化類型文件,可在LM Studio或基於llama.cpp的項目中運行。
這是對internlm的JanusCoder-8B模型進行量化處理的版本,採用llama.cpp的imatrix量化技術,在保證性能的前提下顯著減少模型的存儲和計算資源需求,使模型能夠在更多設備上高效運行。
noctrex
這是基於Intern-S1模型的MXFP4混合專家量化版本,專門針對圖像文本到文本任務進行了優化,通過量化技術提升了推理效率。
gwkrsrch2
這是一個發佈在Hugging Face模型中心的Transformer模型,模型卡片為自動生成。由於缺乏具體信息,無法提供詳細的模型介紹。
Guilherme34
Qwen2.5-14B-Instruct是一個140億參數的大語言模型,專為聊天和文本生成場景設計。該模型基於transformers庫構建,適用於內部測試和輕量級應用部署。
OpenGVLab
InternVL3.5-4B是開源多模態模型系列的中等規模版本,包含4.7億參數,採用先進的級聯強化學習框架和視覺分辨率路由器技術,顯著提升了多模態推理能力和效率。
InternVL3.5是開源多模態模型家族的新成員,顯著提升了InternVL系列的通用性、推理能力和推理效率,支持GUI交互等新功能,達到開源多模態大語言模型的先進水平。
InternVL3.5-4B是開源多模態模型系列中的中等規模版本,在通用性、推理能力和推理效率上取得顯著進展,支持GUI交互等新能力。該模型採用級聯強化學習框架和視覺分辨率路由器技術,實現了高效的多模態理解與推理。
InternVL3.5-14B是InternVL系列的開源多模態模型,顯著提升了通用性、推理能力和推理效率,支持GUI交互等新功能,縮小了與商業模型的性能差距。
InternVL3.5-1B是InternVL系列的開源多模態模型,參數量為1.1B,包含0.3B視覺參數和0.8B語言參數。該模型顯著提升了通用性、推理能力和推理效率,支持GUI交互等新功能。
InternVL3_5-38B是開源多模態模型InternVL3.5系列中的一員,在多功能性、推理能力和推理效率方面取得了顯著進展。它支持多語言,可應用於圖像文本到文本的任務,採用級聯強化學習框架和視覺分辨率路由器技術優化性能。
brandonbeiler
這是OpenGVLab/InternVL3_5-8B的fp8動態(w8a8)量化版本,針對vLLM高性能推理進行了優化。採用FP8動態量化技術,在保持視覺理解能力的同時顯著減少內存佔用並提升推理速度。
這是InternVL3_5-GPT-OSS-20B-A4B-Preview模型的FP8動態量化版本,採用w8a8技術優化,專門針對vLLM進行高性能推理部署。該模型在保持視覺語言理解能力的同時,顯著提升了推理速度和內存效率。
這是OpenGVLab/InternVL3_5-30B-A3B的fp8動態(w8a8)量化版本,針對vLLM高性能推理優化,採用FP8動態量化技術,內存佔用減少約50%,推理速度顯著提升
KnutJaegersberg
InternVL3_5-38B-Q8_0-GGUF 是基於 OpenGVLab 的 InternVL3_5-38B 模型通過 llama.cpp 轉換而來的 GGUF 量化版本。該模型是一個 38B 參數的多模態視覺語言模型,支持圖像和文本的聯合理解與生成,採用 Q8_0 量化格式以優化推理效率。
lmstudio-community
這是OpenGVLab的InternVL3_5 14B模型的量化版本,支持圖像文本到文本的轉換任務,通過量化技術提升了模型運行效率,為相關應用提供了更高效的解決方案。
這是OpenGVLab發佈的InternVL3_5 8B模型的GGUF量化版本,專門用於圖像文本到文本的轉換任務,通過量化技術提供了更高效的推理解決方案。
Koitenshin
這是一個基於InternVL3架構的多模態視覺語言模型,經過量化處理為GGUF格式,支持圖像文本到文本的轉換,具備多語言能力。
這是一個基於InternVL3-8B微調的去限制版本模型,轉換為GGUF格式,支持多語言圖像文本到文本任務,適用於更廣泛的使用場景。
該項目展示了一個支持Internet Identity認證的MCP服務器,包含完整的認證流程和前後端實現。
一個基於TypeScript的MCP服務器,用於與Internet Computer上的DAO交互
MCP互聯網速度測試是一個實驗性項目,通過標準化的MCP協議為AI模型提供網絡性能測試工具,包括下載/上傳速度、延遲和抖動測量等功能。
這是一個提供訪問Internet Archive Wayback Machine的MCP服務器,支持檢索網頁存檔版本和檢查URL可用快照。
一個基於博查搜索API的MCP服務器,用於聯網搜索功能,需要配置博查AI的服務密鑰使用。
一個基於博查搜索API的MCP服務器,用於聯網搜索服務。