上海人工智能实验室发布并开源万亿参数科学多模态大模型“书生 Intern-S1-Pro”,基于“通专融合”架构 SAGE 打造,刷新开源社区参数规模纪录,在多项科学能力上实现突破,综合学科评测稳居 AI4S 领域国际前列。
上海AI实验室发布全球最大开源科学多模态模型“书生 Intern-S1-Pro”,参数达1万亿。该模型基于“通专融合”架构SAGE,在科学能力上达到国际领先水平,尤其在复杂学科评测中展现出卓越的逻辑推理能力。
Stack Overflow推出企业级产品Stack Internal,通过MCP接口提供技术问答元数据及可靠性评分,帮助AI代理避免生成错误信息。CEO透露已有大型客户付费使用,商业模式类似Reddit的内容授权。
上海AI实验室开源发布多模态大模型InternVL3.5,采用级联强化学习、动态视觉分辨率路由等创新技术,实现推理能力、部署效率和通用性能全面提升。该模型提供1B至241B全量级版本,刷新开源模型性能标杆,在多任务上达到领先水平。
Super Intern是群聊中的AI队友,可提醒、答疑、创作,让对话流畅。
InternVL3开源:7种尺寸覆盖文、图、视频处理,多模态能力扩展至工业图像分析
InternLM3 是一个专注于文本生成的模型集合,提供多种优化版本以满足不同需求。
这是一个先进的多模态大型语言模型系列,展示了卓越的整体性能。
Shanghai-ai-lab
$2
输入tokens/百万
-
输出tokens/百万
8
上下文长度
bartowski
JanusCoderV-7B是由InternLM开发的7B参数代码生成模型,本项目提供了使用llama.cpp进行imatrix量化的多个版本,支持多种量化级别以满足不同硬件需求。
这是internlm的JanusCoder-14B模型的量化版本,使用特定工具和数据集进行量化处理,提供了从低质量到高质量的多种量化类型文件,可在LM Studio或基于llama.cpp的项目中运行。
这是对internlm的JanusCoder-8B模型进行量化处理的版本,采用llama.cpp的imatrix量化技术,在保证性能的前提下显著减少模型的存储和计算资源需求,使模型能够在更多设备上高效运行。
noctrex
这是基于Intern-S1模型的MXFP4混合专家量化版本,专门针对图像文本到文本任务进行了优化,通过量化技术提升了推理效率。
gwkrsrch2
这是一个发布在Hugging Face模型中心的Transformer模型,模型卡片为自动生成。由于缺乏具体信息,无法提供详细的模型介绍。
Guilherme34
Qwen2.5-14B-Instruct是一个140亿参数的大语言模型,专为聊天和文本生成场景设计。该模型基于transformers库构建,适用于内部测试和轻量级应用部署。
OpenGVLab
InternVL3.5是开源多模态模型家族的新成员,显著提升了InternVL系列的通用性、推理能力和推理效率,支持GUI交互等新功能,达到开源多模态大语言模型的先进水平。
InternVL3_5-38B是开源多模态模型InternVL3.5系列中的一员,在多功能性、推理能力和推理效率方面取得了显著进展。它支持多语言,可应用于图像文本到文本的任务,采用级联强化学习框架和视觉分辨率路由器技术优化性能。
InternVL3.5-14B是InternVL系列的开源多模态模型,显著提升了通用性、推理能力和推理效率,支持GUI交互等新功能,缩小了与商业模型的性能差距。
InternVL3.5-4B是开源多模态模型系列中的中等规模版本,在通用性、推理能力和推理效率上取得显著进展,支持GUI交互等新能力。该模型采用级联强化学习框架和视觉分辨率路由器技术,实现了高效的多模态理解与推理。
InternVL3.5-1B是InternVL系列的开源多模态模型,参数量为1.1B,包含0.3B视觉参数和0.8B语言参数。该模型显著提升了通用性、推理能力和推理效率,支持GUI交互等新功能。
InternVL3.5-4B是开源多模态模型系列的中等规模版本,包含4.7亿参数,采用先进的级联强化学习框架和视觉分辨率路由器技术,显著提升了多模态推理能力和效率。
brandonbeiler
这是OpenGVLab/InternVL3_5-8B的fp8动态(w8a8)量化版本,针对vLLM高性能推理进行了优化。采用FP8动态量化技术,在保持视觉理解能力的同时显著减少内存占用并提升推理速度。
这是InternVL3_5-GPT-OSS-20B-A4B-Preview模型的FP8动态量化版本,采用w8a8技术优化,专门针对vLLM进行高性能推理部署。该模型在保持视觉语言理解能力的同时,显著提升了推理速度和内存效率。
这是OpenGVLab/InternVL3_5-30B-A3B的fp8动态(w8a8)量化版本,针对vLLM高性能推理优化,采用FP8动态量化技术,内存占用减少约50%,推理速度显著提升
KnutJaegersberg
InternVL3_5-38B-Q8_0-GGUF 是基于 OpenGVLab 的 InternVL3_5-38B 模型通过 llama.cpp 转换而来的 GGUF 量化版本。该模型是一个 38B 参数的多模态视觉语言模型,支持图像和文本的联合理解与生成,采用 Q8_0 量化格式以优化推理效率。
lmstudio-community
这是OpenGVLab的InternVL3_5 14B模型的量化版本,支持图像文本到文本的转换任务,通过量化技术提升了模型运行效率,为相关应用提供了更高效的解决方案。
这是OpenGVLab发布的InternVL3_5 8B模型的GGUF量化版本,专门用于图像文本到文本的转换任务,通过量化技术提供了更高效的推理解决方案。
Koitenshin
这是一个基于InternVL3架构的多模态视觉语言模型,经过量化处理为GGUF格式,支持图像文本到文本的转换,具备多语言能力。
这是一个基于InternVL3-8B微调的去限制版本模型,转换为GGUF格式,支持多语言图像文本到文本任务,适用于更广泛的使用场景。
MCP互联网速度测试是一个实验性项目,通过标准化的MCP协议为AI模型提供网络性能测试工具,包括下载/上传速度、延迟和抖动测量等功能。
该项目展示了一个支持Internet Identity认证的MCP服务器,包含完整的认证流程和前后端实现。
一个基于TypeScript的MCP服务器,用于与Internet Computer上的DAO交互
这是一个提供访问Internet Archive Wayback Machine的MCP服务器,支持检索网页存档版本和检查URL可用快照。
Dead Internet是一个为AI智能体构建的高保真、主权模拟现代互联网生态系统。它提供完整的微服务架构(包括身份认证、社交、金融、搜索、云部署等),让AI智能体作为一等公民在其中自主生活、交互和操作,并通过Model Context Protocol(MCP)支持外部智能体接入。
一个基于博查搜索API的MCP服务器,用于联网搜索功能,需要配置博查AI的服务密钥使用。
一个基于博查搜索API的MCP服务器,用于联网搜索服务。