Cloudflareがシステムの設定問題により世界中のネットワークを妨げ、ChatGPT、X、Spotify、Uberなどの広範なサービスが停止しました。障害のピーク時に210万件以上の異常報告を受けました。緊急修復を行った結果、コアサービスは約6時間後に復旧し、影響を受けたプラットフォームは順次正常なアクセスに戻りました。
Uberはインドで新サービスを開始し、運転手が空き時間にデータ分類や情報収集の仕事に参加できるようにしました。写真審査やテキスト分類などのタスクを通じて追加収入を得る機会を提供します。....
自動運転トラック企業Waabiは、Uber Freight元CEOのリオール・ロンをCOOに任命し、無人トラックサービスの商用化を推進。テスラ元幹部のレベッカ・ティヌッチがUber Freight CEOに就任、ロンは会長職を継続。....
Appleは新版Siriをテスト中で、音声によるアプリ間操作(写真編集後の送信やコメント投稿など)が可能に。App Intentsフレームワークの強化で開発者がより多くの機能を開放。UberやWhatsAppなどでテスト中だが、2024年予定のスマート版Siriは延期。2026年春に全面刷新版を発表予定。....
あらゆるコンテンツ制作ニーズに対応する、非常に強力なAI言語?画像モデル!
究極AI音声変換
AI音声合成ツール。音楽制作やAI音声の作成に利用できます。
ubergarm
これはai-sage/GigaChat3-10B-A1.8B-bf16モデルのGGUF量子化バージョンで、高精度のQ8_0から極度に圧縮されたsmol-IQ1_KTまで、さまざまな量子化オプションを提供し、さまざまなハードウェア条件でのデプロイメントニーズを満たします。このモデルは32Kのコンテキスト長をサポートし、MLAアーキテクチャを採用し、対話シナリオに最適化されています。
ubergarm2
これはinclusionAI/Ling-1Tモデルの量子化バージョンのセットで、ik_llama.cppブランチに基づいて開発され、さまざまなメモリとパフォーマンスの要件に合わせた複数の量子化方案を提供します。これらの量子化モデルは、与えられたメモリ使用量で優れた困惑度の性能を提供し、特にMoEアーキテクチャの推論効率を最適化しています。
ik_llama.cppブランチに基づいて最適化されたGLM-4.6の量子化バージョンで、先進的なIQ量子化技術を採用し、高品質な出力を維持しながらメモリ使用量を大幅に削減します。このシリーズにはIQ5_KからIQ1_KTまでの複数の量子化レベルが含まれ、さまざまなハードウェア環境での推論ニーズを満たします。
これはmoonshotai/Kimi-K2-Instruct-0905モデルのGGUF形式の量子化バージョンで、ik_llama.cppブランチを使用して最適量子化を行っています。このモデルは混合エキスパートアーキテクチャを採用し、中国語対話とテキスト生成タスクをサポートし、さまざまな量子化方案で最適化されており、高品質を維持しながらメモリ使用量を大幅に削減しています。
DeepSeek-V3.1モデルに基づくGGUF形式の量子化バージョンで、ik_llama.cppブランチを使用して最適な量子化を行います。このモデルは特定のメモリ使用量で最適な困惑度を達成し、IQ5_KからIQ1_Sまでのさまざまな量子化スキームを提供し、さまざまなメモリとパフォーマンスの要件を満たします。
これはik_llama.cppに基づくGLM-4.5-Airモデルの実験的な量子化バージョンで、imatrix技術を用いて最適化されており、現在テスト段階にあり、広範な使用には適していません。このバージョンは先進的な量子化技術により、より高い推論効率を実現し、モデルの性能を維持しながらメモリ使用量を大幅に削減しています。
これはQwen3-235B-A22B-Thinking-2507モデルのimatrix量子化バージョンで、ik_llama.cppブランチの最適な量子化方案を採用し、与えられたメモリ使用量で一流の困惑度を達成しています。このモデルは2350億パラメータの大規模言語モデルで、中国語や英語などの複数の言語をサポートしています。
Kimi-Dev-72Bの量子化バージョンで、先進的な非線形最適量子化とマルチヘッド潜在注意力機構を採用し、ストレージと計算要件を削減します。
DeepSeek - R1T - Chimeraは、ik_llama.cppが提供する高度な量子化方式により、性能を維持しながらメモリ使用量を大幅に削減した高品質の大規模言語モデルです。
Qwen3-30B-A3Bの量子化バージョンで、先進的な非線形SotA量子化技術を採用し、与えられたメモリ使用量で同類最高の品質を提供します。
Qwen3-235B-A22Bは2350億パラメータの大規模言語モデルで、ik_llama.cppブランチの先進的な非線形量子化処理を経ており、高性能計算環境に適しています。
Gemma-3-27Bは、非線形量子化技術をサポートする高度な会話型大規模言語モデルで、高品質なテキスト生成能力を提供します。
現在のV3-0324モデルはこのサイズカテゴリで最高性能の量子化バージョンであり、Q8_0に近い性能を維持しながら大幅にサイズを削減
ubermenchh
T5-smallをファインチューニングしたサンスクリット語-英語翻訳モデル、itihasaデータセットでトレーニング
これは拡散モデル(Diffusion Model)に基づく画像生成モデルで、蝶の画像に特化してファインチューニングされています。
これは拡散モデルに基づく無条件画像生成モデルで、可愛い蝶の画像を生成するために特別に設計されています。
SGaleshchuk
mt5-largeアーキテクチャをファインチューニングしたウクライナ語ニュース要約生成モデル、UberTextコーパスでトレーニング
KoichiYasuoka
ウクライナ語UberTextコーパスで事前学習されたRoBERTaモデルで、品詞タグ付け(UPOS)と依存構文解析タスク専用
Uber EatsをベースとしたMCPサーバーのプロトタイプで、LLMアプリケーションと外部ツールのシームレスな統合を実現します。
Ubersuggest SEOプラットフォームを統合したMCPサーバーで、Cursor IDEにAI支援のSEO分析機能(ドメイン分析、キーワード研究、サイト監査、トラフィック予測など)を提供します。
MCP Uberサーバーは、AIアシスタントを通じてUberの移動を予約するモデルプロトコルサーバーで、OAuth認証、料金見積もり、乗車要求、状況照会、行程キャンセルなどの機能を提供します。
Uber Eatsに基づくMCPサーバーの概念実証プロジェクト