Waymoは160億ドルの資金調達を完了し、評価額は1260億ドルに達しました。Alphabet傘下の自律走行車会社として、旧金山、フェニックス、ロサンゼルス、マイアミなどでサービスを展開しており、Uberなどと提携してビジネスを拡大しています。
自律走行会社のWaabiは10億ドルの資金調達を完了し、Uberとの戦略的提携を締結し、業務範囲を運輸からRobotaxiへ拡大しました。資金調達は7.5億ドルのCラウンドとUberからの2.5億ドルの投資を含んでいます。WaabiはUberプラットフォームに少なくとも2万5千台の自律走行タクシーを導入し、そのAI駆動技術を使用します。
清华大学、Uber、およびManifold AIが共同で構築したAI研究プラットフォームであるManifold AI(マニフォールド・エイアイ)は、近日、1億円を超えるシード+ラウンドの資金調達に成功しました。このプラットフォームは、特に機械学習モデルのデバッグに焦点を当て、研究サポート、データ管理、分析協力ツールなどのコア機能を備え、研究開発や機械学習分野の革新を促進することを目的としています。
Cloudflareがシステムの設定問題により世界中のネットワークを妨げ、ChatGPT、X、Spotify、Uberなどの広範なサービスが停止しました。障害のピーク時に210万件以上の異常報告を受けました。緊急修復を行った結果、コアサービスは約6時間後に復旧し、影響を受けたプラットフォームは順次正常なアクセスに戻りました。
あらゆるコンテンツ制作ニーズに対応する、非常に強力なAI言語?画像モデル!
究極AI音声変換
AI音声合成ツール。音楽制作やAI音声の作成に利用できます。
ubergarm
これはai-sage/GigaChat3-10B-A1.8B-bf16モデルのGGUF量子化バージョンで、高精度のQ8_0から極度に圧縮されたsmol-IQ1_KTまで、さまざまな量子化オプションを提供し、さまざまなハードウェア条件でのデプロイメントニーズを満たします。このモデルは32Kのコンテキスト長をサポートし、MLAアーキテクチャを採用し、対話シナリオに最適化されています。
ubergarm2
これはinclusionAI/Ling-1Tモデルの量子化バージョンのセットで、ik_llama.cppブランチに基づいて開発され、さまざまなメモリとパフォーマンスの要件に合わせた複数の量子化方案を提供します。これらの量子化モデルは、与えられたメモリ使用量で優れた困惑度の性能を提供し、特にMoEアーキテクチャの推論効率を最適化しています。
ik_llama.cppブランチに基づいて最適化されたGLM-4.6の量子化バージョンで、先進的なIQ量子化技術を採用し、高品質な出力を維持しながらメモリ使用量を大幅に削減します。このシリーズにはIQ5_KからIQ1_KTまでの複数の量子化レベルが含まれ、さまざまなハードウェア環境での推論ニーズを満たします。
これはmoonshotai/Kimi-K2-Instruct-0905モデルのGGUF形式の量子化バージョンで、ik_llama.cppブランチを使用して最適量子化を行っています。このモデルは混合エキスパートアーキテクチャを採用し、中国語対話とテキスト生成タスクをサポートし、さまざまな量子化方案で最適化されており、高品質を維持しながらメモリ使用量を大幅に削減しています。
DeepSeek-V3.1モデルに基づくGGUF形式の量子化バージョンで、ik_llama.cppブランチを使用して最適な量子化を行います。このモデルは特定のメモリ使用量で最適な困惑度を達成し、IQ5_KからIQ1_Sまでのさまざまな量子化スキームを提供し、さまざまなメモリとパフォーマンスの要件を満たします。
これはik_llama.cppに基づくGLM-4.5-Airモデルの実験的な量子化バージョンで、imatrix技術を用いて最適化されており、現在テスト段階にあり、広範な使用には適していません。このバージョンは先進的な量子化技術により、より高い推論効率を実現し、モデルの性能を維持しながらメモリ使用量を大幅に削減しています。
これはQwen3-235B-A22B-Thinking-2507モデルのimatrix量子化バージョンで、ik_llama.cppブランチの最適な量子化方案を採用し、与えられたメモリ使用量で一流の困惑度を達成しています。このモデルは2350億パラメータの大規模言語モデルで、中国語や英語などの複数の言語をサポートしています。
Kimi-Dev-72Bの量子化バージョンで、先進的な非線形最適量子化とマルチヘッド潜在注意力機構を採用し、ストレージと計算要件を削減します。
DeepSeek - R1T - Chimeraは、ik_llama.cppが提供する高度な量子化方式により、性能を維持しながらメモリ使用量を大幅に削減した高品質の大規模言語モデルです。
Qwen3-30B-A3Bの量子化バージョンで、先進的な非線形SotA量子化技術を採用し、与えられたメモリ使用量で同類最高の品質を提供します。
Qwen3-235B-A22Bは2350億パラメータの大規模言語モデルで、ik_llama.cppブランチの先進的な非線形量子化処理を経ており、高性能計算環境に適しています。
Gemma-3-27Bは、非線形量子化技術をサポートする高度な会話型大規模言語モデルで、高品質なテキスト生成能力を提供します。
現在のV3-0324モデルはこのサイズカテゴリで最高性能の量子化バージョンであり、Q8_0に近い性能を維持しながら大幅にサイズを削減
ubermenchh
T5-smallをファインチューニングしたサンスクリット語-英語翻訳モデル、itihasaデータセットでトレーニング
これは拡散モデル(Diffusion Model)に基づく画像生成モデルで、蝶の画像に特化してファインチューニングされています。
これは拡散モデルに基づく無条件画像生成モデルで、可愛い蝶の画像を生成するために特別に設計されています。
SGaleshchuk
mt5-largeアーキテクチャをファインチューニングしたウクライナ語ニュース要約生成モデル、UberTextコーパスでトレーニング
KoichiYasuoka
ウクライナ語UberTextコーパスで事前学習されたRoBERTaモデルで、品詞タグ付け(UPOS)と依存構文解析タスク専用
Uber EatsをベースとしたMCPサーバーのプロトタイプで、LLMアプリケーションと外部ツールのシームレスな統合を実現します。
Ubersuggest SEOプラットフォームを統合したMCPサーバーで、Cursor IDEにAI支援のSEO分析機能(ドメイン分析、キーワード研究、サイト監査、トラフィック予測など)を提供します。
MCP Uberサーバーは、AIアシスタントを通じてUberの移動を予約するモデルプロトコルサーバーで、OAuth認証、料金見積もり、乗車要求、状況照会、行程キャンセルなどの機能を提供します。
Uber Eatsに基づくMCPサーバーの概念実証プロジェクト