哈工大と博実股份が共同開発した二形態ヒューマノイドロボットは、二足歩行と車輪移動を可能にし、独自開発の関節モジュール、精巧なハンド、AI制御システムを搭載。中核部品から機体統合までのシステム的ブレークスルーを実現。....
宇樹テクノロジーは新しい特許を取得し、拡散戦略によってロボットの意思決定能力を向上させ、動作理解の誤差問題を解決しました。技術のコアは場面認識、インタラクティブ予測および拡散意思決定であり、今後の状態への正確な認識を強化することを目的としています。
ワーナーミュージックとAIプラットフォームのSunoが和解:1.著作権協力を通じて進化した権利許諾モデルを展開し、アーティストが自身の名前や肖像などの権利を自主的に管理できる;2. SongkickプラットフォームをSunoに売却し、ファンコミュニティ機能は保持。ビジネスモデルは有料ダウンロードへ転換され、無料利用者は制限される。
宇樹科技が「Embodied Avatar」を発表。高精度モーションキャプチャとミリ秒単位の遠隔制御により、人間がロボットをリアルタイム操作し、複雑な動作を実現。全リンク低遅延技術が核。....
Helixは、汎用人型ロボット制御のための視覚?言語?行動モデルです。
HOMIEは、人体運動捕捉と強化学習トレーニングフレームを統合した、革新的なヒューマノイドロボット遠隔操作システムです。正確な歩行と操作タスクの実現を目指しています。
VideoWorldは、ラベルなし動画から知識を学習する深層生成モデルです。
ビデオ拡散モデルに基づく、多様なタスクに対応可能な汎用的なロボット制御ポリシーです。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
Baidu
128
$6
$24
256
$4
$16
Bytedance
$1.2
$3.6
4
$2
nbirukov
拡散戦略に基づく視覚運動制御モデルで、ロボット制御を生成拡散プロセスと見なし、滑らかな多段階動作軌跡を生成でき、富接触操作タスクで優れた性能を発揮します。
Ziang-Li
LeRobotフレームワークを基に訓練されたロボット戦略モデルで、ロボット制御タスクに適用可能
masato-ka
青色または緑色のブロック分類用に訓練されたアクションチャンキングTransformer戦略モデルで、SO-ARM100ロボットアームのブロック分類把持タスクを制御するために使用されます
jclinton1
Diffusion Policyは拡散戦略に基づくロボット制御モデルで、PyTorchで実装されHugging Faceのモデルハブに統合されています。
Diffusion Policyは拡散モデルに基づく戦略学習フレームワークで、ロボット制御タスクに適しています。
拡散戦略に基づくロボット制御モデルで、PyTorchModelHubMixinを統合して公開
IPEC-COMMUNITY
SpatialVLAは視覚-言語-動作モデルで、fractalデータセットでファインチューニングされ、主にロボット制御タスクに使用されます。
michaelyuanqwq
RoboEngineは初の即插即用型のビジュアルロボットデータ強化ツールキットで、ユーザーは数行のコードで物理とタスク感知能力を持つロボットシーンを生成でき、既存の方法がカメラキャリブレーションや制御環境の制限を受ける問題を解決し、模倣学習のビジュアルロバスト性を大幅に向上させます。
Menlo
Poseless-3Bは、視覚言語モデル(VLM)ベースのロボットハンド制御フレームワークで、明示的な姿勢推定なしに2D画像を関節角度に直接マッピングできます。
homebrewltd
PoseLessは、明示的な姿勢推定を必要とせず、投影表現を使用して2D画像を直接関節角度にマッピングする革新的なロボットハンド制御フレームワークです。
lerobot
Pi0は汎用ロボット制御のための視覚-言語-動作フローモデルで、ロボット制御タスクをサポートします。
SpatialVLAは視覚-言語-動作モデルで、基礎モデルをフラクタルとブリッジデータセットでファインチューニングしており、ロボット制御タスク専用に設計されています。
SpatialVLAは110万の実ロボット操作シーンで訓練された空間拡張視覚言語動作モデルで、ロボット制御タスクに特化しています
ConnorJiang
PyTorchベースの動作制御モデルで、ロボット技術分野に適用可能
TrossenRoboticsCommunity
PyTorchベースの動作制御モデルで、ロボット技術分野の動作制御タスクに特化しています。
Embodied-CoT
ロボット制御タスク向けの事前学習Transformerモデルで、運動計画、物体把持などの基本機能をサポート
ロボット技術に特化したモデルで、ロボット制御、ナビゲーション、タスク計画などの分野をカバーする可能性があります。
Diffusion Policyでトレーニングされたロボット制御モデルで、PushTタスク専用に設計されており、キーポイント観測データを使用してトレーニングされています
openvla
OpenVLA v0.1 7Bはオープンソースの視覚-言語-動作モデルで、Open X-Embodimentデータセットでトレーニングされ、さまざまなロボット制御をサポートします。
rail-berkeley
Octo小型版はロボット制御のための拡散戦略モデルで、Transformerアーキテクチャを採用し、視覚入力と言語命令に基づいてロボットの動作を予測できます。
ros2-mcp-serverはPythonベースのサーバーで、Model Context Protocol (MCP)を通じてROS 2と統合され、AIアシスタントがROS 2トピックを通じてロボットの動きを制御できるようにします。時間制御の移動コマンドをサポートし、ROS 2ノードとして動作し、geometry_msgs/Twistメッセージを/cmd_velトピックに発行します。
RegenNexus UAPは、デバイス、ロボット、アプリケーション、AIエージェントを接続するための汎用アダプタープロトコルで、低遅延、高セキュリティの通信を提供し、さまざまなハードウェアとMCP統合をサポートします。
MCPデータ取得サーバーは、モデル制御プロトコル(MCP)を通じてウェブコンテンツを取得し、データを抽出する安全でサンドボックス化されたサーバーです。JavaScriptを実行しません。
MCPプロトコルに基づくデスクトップ自動化サービスで、マウスとキーボードの制御およびスクリーンショット機能を提供します
ESP32 CYD開発ボードのMCPサーバー実装で、WebSocketプロトコルを通じてディスプレイ、タッチ、GPIO、センサーなどのハードウェア機能をリモートで制御する完全なソリューションを提供します。
phosphoの公式MCPサーバーで、モデルコンテキストプロトコルを実装し、自然言語で物理ロボットを制御でき、アクションの実行とカメラ画像ストリーミング機能を提供します。
Isaac Sim MCP拡張機能は、自然言語でNVIDIA Isaac Simを制御し、ロボットシミュレーション、シーン作成、動的なインタラクションを実現し、MCPエコシステムと具現化されたインテリジェントアプリケーションを接続します。
MineflayerベースのMinecraftモデル制御プロトコルサーバーで、AIエージェントにMinecraftロボットを制御するための標準化されたJSON - RPCインターフェイスを提供します。
Windows APIにMCPサービスを提供するツールで、メディアコントロール、通知送信、ウィンドウ管理、スクリーンショット、ディスプレイ制御、テーマ設定、スタートメニュー、クリップボード操作などの機能をサポートします。
Windowsシステム用のMCPサーバーで、メディアコントロール、通知送信、ウィンドウ管理、スクリーンショット、モニター制御、テーマ設定、ファイル/URLの開放、クリップボード操作などの機能を提供します。
コンピュータ制御機能を提供するMCPサーバーで、マウス・キーボード制御、スクリーンショット、OCR文字認識などが含まれ、クロスプラットフォームで動作し、外部依存が不要です。
ROS2のMCPサーバーは、標準MCPプロトコルを通じて、AIツールがROS2ノード、トピック、およびサービスに接続できるようにします。トピックのサブスクライブと公開、サービスの呼び出し、アクションの制御などの機能を提供し、ネストされたフィールドと自動タイプ検出をサポートし、AIとROS2の統合開発を簡素化します。
PhonePi MCPはオープンソースプロジェクトで、携帯電話をAIアシスタントのツールボックスに変え、Model Context Protocolを通じて携帯電話の機能をリモートで制御できます。連絡先、メッセージ、設定などの管理を含み、ローカルデプロイとネットワークセキュリティを重視しています。
このプロジェクトはSpring AIとMCPプロトコルを使用して、自然言語でmBot2ロボットを制御します。Spring Bootアプリケーション、MQTTメッセージキュー、およびロボット側のPythonスクリプトを含み、探索、旋回などの指令のAI呼び出しをサポートします。
FastMCPライブラリに基づくMCPサーバープロジェクトで、ネットワーククライアントを通じて自然言語でNvidia Jetson開発ボードを監視およびリモート制御します。
ROS MCPサーバーは自然言語コマンドでロボットの運動を制御し、ROSとROS2システムをサポートします。
大規模言語モデルとMineflayer APIに基づくMinecraftロボットで、MCPプロトコルを通じてClaudeなどのモデルがゲームキャラクターを制御します。
Telegramボットを通じてMinecraftサーバーのRCONを遠隔制御するプロジェクト
FastMCPに基づくロボット制御サーバープロジェクトで、移動動作制御をサポートし、将来的にナビゲーション機能を拡張する予定です。
MCPControlはWindows制御サーバーで、Model Context Protocolを通じてプログラムによるシステム操作を実現し、マウスとキーボードの制御、ウィンドウ管理、スクリーンキャプチャなどの機能を提供し、AIモデルとデスクトップのインタラクションの架け橋となります。