具身智能領域的神祕模型MotuBrain身份揭曉,該模型由視頻大模型Vidu開發商生數科技推出,是其最新商業化成果。MotuBrain在物理世界理解基準WorldArena和動作執行基準RoboTwin2.0中均登頂,刷新了紀錄,展示了生數科技在具身智能領域的跨界實力。
騰訊 Robotics X 與混元團隊聯合開源HY-Embodied-0.5-X多模態大模型,專爲機器人具身任務優化。該模型基於MoT-2B架構,強化“看懂、想清、做到”能力,在精細操作、空間推理、動作預測和風險判斷上表現突出。系列包含MoT-2B和MoE-32B兩個版本,旨在提升機器人在真實環境的智能交互水平。
波士頓動力與谷歌DeepMind合作,將Gemini Robotics-ER1.6 AI模型集成到Spot機器人中,顯著提升了其在工業檢測中的能力,特別是在泄漏識別和儀表數據讀取方面,增強了機器人的自主決策性能。
Animotion Robotics創始人朱聖傑與Midjourney聯合創始人John Jiang共同推出首款DIY仿生機器人Éloi,旨在突破具身智能極限,重塑人機情感共生。朱聖傑曾任職迪士尼Imagineering機器人工程師,團隊背景硬核,融合“迪士尼基因”與AI芯片技術,探索物理世界人機交互新可能。
用AI秒速創建個性化聖誕賀卡,首張免費,可印刷配送或發電子卡。
基於Gemini 2.0的機器人模型,將AI帶入物理世界,具備視覺、語言和動作能力。
用於雙手操作的擴散基礎模型
特斯拉自動駕駛技術與機器人的未來願景
Remade-AI
基於Wan2.1 14B I2V 480p模型訓練的LoRA,可將任何圖像主體轉化為展現機器人面部的視頻效果
RobotsMali
這是一個基於NVIDIA NeMo框架微調的班巴拉語自動語音識別模型,適用於處理班巴拉語語音轉文本任務。
robotics-diffusion-transformer
RDT-170M是一個擁有1.7億參數的模仿學習擴散Transformer模型,用於機器人視覺-語言-動作任務。
robotjagaek
一個基於PyTorch和HuggingPics構建的圖像分類模型,專門用於識別不同種類的鞋子。
Ethan-pooh
基於robotics-diffusion-transformer/rdt-1b衍生的RDT模型,專注於機器人技術領域。
基於100萬+多機器人操作數據預訓練的10億參數模仿學習擴散Transformer模型,支持多視角視覺語言動作預測
robotjung
專為生成半寫實風格人物圖像而打造的模型,經過多次模型融合優化。
ros2-mcp-server是一個基於Python的服務器,通過Model Context Protocol (MCP)與ROS 2集成,使AI助手能夠通過ROS 2話題控制機器人運動。它支持時間控制的移動命令,並作為ROS 2節點運行,發佈geometry_msgs/Twist消息到/cmd_vel話題。
這是一個Airbnb房源搜索和詳情查詢的MCP服務,提供結構化數據和直接鏈接,無需API密鑰,遵守robots.txt規則。
將Robot Framework庫轉換為MCP服務器的指南,通過添加特定函數和配置,使庫能夠作為MCP服務運行,便於客戶端調用。
Airbnb搜索與房源信息桌面擴展,提供高級搜索過濾功能和詳細房源信息獲取,支持位置搜索、日期篩選、價格區間等多種查詢條件,並遵守robots.txt協議確保合規使用。
一個基於FastMCP的機器人控制服務器項目,支持移動動作控制,未來將擴展導航功能。