OpenAI升级科研AI平台Prism,将底层模型提升至GPT-5.3并引入Codex CLI,旨在实现科研全流程一体化。该平台整合文本编辑、PDF阅读、LaTeX编译和文献管理功能,帮助科研人员告别多工具切换,提升科学写作与协作效率。
OpenAI推出科研协作平台Prism,由GPT-5.2驱动,整合文本编辑、LaTeX编译、PDF阅读、文献管理和AI聊天功能,解决科研写作中多软件切换问题。调研显示高级科研用户对AI工具需求强烈,Prism旨在提升科研效率。
2026年1月28日,OpenAI推出AI原生在线工作空间Prism,专为科研人员设计。该工具由GPT-5.2驱动,深度集成AI能力,旨在重塑科学写作与团队协作流程。Prism基于收购的Crixet云端LaTeX平台构建,整合多项功能于统一界面,打破传统科研工具割裂现状,成为科研领域的集成化“全能助手”。
XREAL发布AR智能眼镜XREAL One Pro,采用自主研发X Prism光学引擎技术,实现57°超大视场角,可视面积提升63%。搭载X1空间计算芯片,3毫秒超低延迟,兼容多设备。海外已获超1万预订,国内售价4299元,7月底发货。
专业AI工具,为创作者、营销人员和企业打造高画质视频与图像
集成研究空间,集发现、组织、合成于一体,高效科研工作平台
Prisma捕捉您的照片精髓,将它们转化为生动的彩色油画。
自动化AI翻译产品文案,支持多语言快速发布。
VLA-Adapter
VLA-Adapter是一种在Libero-Spatial上训练的微型视觉语言动作模型,采用Prismatic-VLM架构,仅使用Qwen2.5-0.5B作为大语言模型主干。该模型在机器人基准测试中超越了参数规模更大的开源VLA模型,实现了高性能的视觉-语言-动作理解与执行。
Stanford-ILIAD
MiniVLA 是一个更小体积但性能更强的视觉语言动作模型,兼容 Prismatic VLMs 项目代码库。
一个在Llava-1.5-Instruct数据集上训练完成的多模态视觉语言模型,兼容Prismatic版本。
MiniVLA是一个更小体积但性能优异的视觉语言动作模型,兼容Prismatic VLMs训练脚本,适用于机器人技术和多模态任务。
MiniVLA是一个轻量级的视觉语言模型,兼容Prismatic VLMs训练框架,支持图像文本到文本的多模态任务。
openvla
OpenVLA 7B是一个开源的视觉语言动作模型,兼容Prismatic VLMs训练脚本格式,支持完全微调75亿参数。
一个实验性的MCP服务器项目,用于通过大型语言模型与Nutanix Prism Central API交互
ContextBase是一个基于MCP协议的AI上下文管理服务器,提供用户认证、记忆存储、日志记录等功能,采用TypeScript、Fastify和Prisma等技术栈,支持PostgreSQL和Redis数据库。
Zed编辑器扩展,用于连接Prisma MCP服务器
一个为Prisma Cloud文档提供搜索功能的MCP服务器,支持Claude等客户端访问官方文档和API参考。
该项目是一个基于FastAPI的Nutanix MCP服务器原型,用于从Nutanix Prism Central获取集群和虚拟机信息,支持与Dify平台集成实现自然语言查询功能。
基于T3技术栈的Next.js全栈应用模板,包含NextAuth、Prisma、Drizzle、Tailwind CSS和tRPC等现代技术
Prisma是一个下一代ORM工具,提供Prisma Client、Prisma Migrate和Prisma Studio等功能,支持Node.js和TypeScript,简化数据库操作。