OpenAI升級科研AI平臺Prism,將底層模型提升至GPT-5.3並引入Codex CLI,旨在實現科研全流程一體化。該平臺整合文本編輯、PDF閱讀、LaTeX編譯和文獻管理功能,幫助科研人員告別多工具切換,提升科學寫作與協作效率。
OpenAI推出科研協作平臺Prism,由GPT-5.2驅動,整合文本編輯、LaTeX編譯、PDF閱讀、文獻管理和AI聊天功能,解決科研寫作中多軟件切換問題。調研顯示高級科研用戶對AI工具需求強烈,Prism旨在提升科研效率。
2026年1月28日,OpenAI推出AI原生在線工作空間Prism,專爲科研人員設計。該工具由GPT-5.2驅動,深度集成AI能力,旨在重塑科學寫作與團隊協作流程。Prism基於收購的Crixet雲端LaTeX平臺構建,整合多項功能於統一界面,打破傳統科研工具割裂現狀,成爲科研領域的集成化“全能助手”。
XREAL發佈AR智能眼鏡XREAL One Pro,採用自主研發X Prism光學引擎技術,實現57°超大視場角,可視面積提升63%。搭載X1空間計算芯片,3毫秒超低延遲,兼容多設備。海外已獲超1萬預訂,國內售價4299元,7月底發貨。
專業AI工具,為創作者、營銷人員和企業打造高畫質視頻與圖像
集成研究空間,集發現、組織、合成於一體,高效科研工作平臺
Prisma捕捉您的照片精髓,將它們轉化為生動的彩色油畫。
自動化AI翻譯產品文案,支持多語言快速發佈。
VLA-Adapter
VLA-Adapter是一種在Libero-Spatial上訓練的微型視覺語言動作模型,採用Prismatic-VLM架構,僅使用Qwen2.5-0.5B作為大語言模型主幹。該模型在機器人基準測試中超越了參數規模更大的開源VLA模型,實現了高性能的視覺-語言-動作理解與執行。
Stanford-ILIAD
MiniVLA 是一個更小體積但性能更強的視覺語言動作模型,兼容 Prismatic VLMs 項目代碼庫。
一個在Llava-1.5-Instruct數據集上訓練完成的多模態視覺語言模型,兼容Prismatic版本。
MiniVLA是一個更小體積但性能優異的視覺語言動作模型,兼容Prismatic VLMs訓練腳本,適用於機器人技術和多模態任務。
MiniVLA是一個輕量級的視覺語言模型,兼容Prismatic VLMs訓練框架,支持圖像文本到文本的多模態任務。
openvla
OpenVLA 7B是一個開源的視覺語言動作模型,兼容Prismatic VLMs訓練腳本格式,支持完全微調75億參數。
一個實驗性的MCP服務器項目,用於通過大型語言模型與Nutanix Prism Central API交互
ContextBase是一個基於MCP協議的AI上下文管理服務器,提供用戶認證、記憶存儲、日誌記錄等功能,採用TypeScript、Fastify和Prisma等技術棧,支持PostgreSQL和Redis數據庫。
該項目是一個基於FastAPI的Nutanix MCP服務器原型,用於從Nutanix Prism Central獲取集群和虛擬機信息,支持與Dify平臺集成實現自然語言查詢功能。
一個為Prisma Cloud文檔提供搜索功能的MCP服務器,支持Claude等客戶端訪問官方文檔和API參考。
基於T3技術棧的Next.js全棧應用模板,包含NextAuth、Prisma、Drizzle、Tailwind CSS和tRPC等現代技術
Zed編輯器擴展,用於連接Prisma MCP服務器
Prisma是一個下一代ORM工具,提供Prisma Client、Prisma Migrate和Prisma Studio等功能,支持Node.js和TypeScript,簡化數據庫操作。