宇樹科技CEO王興興氏は虹橋フォーラムで、ロボット大規模モデルがまだ初期段階(ChatGPT発表前1-3年程度)と指摘。生成AIの言語・視覚分野の進展を評価しつつ、人型ロボット分野の更なる革新突破を強調。....
OpenAIのChatGPTアプリは2023年5月のリリース以来、累計20億ドルの収益を達成。競合の30倍の収益を記録し、2024年1-7月期の収益は前年比673%増の13.5億ドルと急成長中。....
シンガポールのAIチップ検査スタートアップSixSenseが850万ドルのAラウンドを調達、総調達額は1200万ドルに。プログラミング不要のAIプラットフォームを開発し、チップ欠陥のリアルタイム予測・故障分析を可能に。GlobalFoundriesなどで実績があり、生産性1-2%向上、人手削減90%を達成。新設の半導体工場増加を受け、米国市場拡大を推進中。....
シンガポールの深科技スタートアップSixSenseがPeak XV主導で850万ドル調達、総額1200万ドルに。半導体製造向けAIプラットフォームを開発し、GlobalFoundriesなどで生産サイクル30%短縮、歩留まり1-2%向上を実現。地政学リスクを背景に米国市場展開中。....
Magic 1-For-1は、1分間のビデオを1分で生成できる、効率的な画像からビデオへの生成モデルです。
電話またはWhatsAppでChatGPTと会話できます。
Miqu 1-70bはオープンソースの大規模言語モデルです
shiviklabs
Qwen3-1.7Bをファインチューニングしたバージョンで、1-shot強化学習と検証可能な報酬(RLVR)方法により数学推論能力が強化され、数学ベンチマークテストとコーディングタスクで優れた性能を発揮します。
Mungert
GLM-Z1-9B-0414 は中英バイリンガルのテキスト生成モデルで、GGUFフォーマットを採用し、BF16から超低ビット量子化(1-2ビット)までの複数の量子化レベルに対応しています。
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)モデルで、メモリ制約のあるデバイスや効率的な推論シナリオに適しています
Llama-3.2-3B-Instruct GGUFはMetaがリリースした3Bパラメータ規模の大規模言語モデルで、IQ-DynamicGate技術を用いた超低ビット量子化(1-2ビット)を採用し、メモリ効率を維持しながら推論性能を最適化しています。
phi-2 は IQ-DynamicGate 超低ビット量子化(1-2 ビット)を採用したテキスト生成モデルで、自然言語処理とコード生成タスクに適しています。
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)言語モデル、メモリ制約環境に適応
IQ-DynamicGate技術を採用した超低位量子化(1-2ビット)モデルで、メモリ制約のあるデバイスやエッジコンピューティングシナリオに適しています
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)大規模言語モデル、多言語テキスト生成タスクをサポート
Llama-3-8Bアーキテクチャを基に最適化された超低ビット量子化モデル。IQ-DynamicGate技術により1-2ビット精度の適応的量子化を実現し、メモリ制約環境に適しています。
Llama-3.1-70Bを基にした超低位量子化(1-2ビット)モデルで、IQ-DynamicGate技術を用いて精度適応型量子化を実現し、メモリ効率を維持しながら精度を向上させています。
Efficient-Large-Model
SANA-Sprintは超効率的なテキストから画像を生成する拡散モデルで、推論ステップを20ステップから1-4ステップに削減しながらトップクラスの性能を維持します。
IQ-DynamicGate超低ビット量子化技術を採用した49Bパラメータ大規模言語モデル、1-2ビット精度適応量子化をサポート、メモリ効率と推論速度を最適化
IQ-DynamicGate技術を採用した超低ビット量子化(1-2ビット)の7.8Bパラメータモデルで、英語と韓語のテキスト生成タスクをサポートします。
Qwen2.5-7B-Instruct-1MはQwen2.5-7Bを基にした命令微調整バージョンで、IQ-DynamicGate超低ビット量子化技術(1-2ビット)を採用し、メモリ制約環境下での効率的な推論に適しています。
Llama-3-8B-InstructベースのIQ-DynamicGate超低ビット量子化(1-2ビット)モデルで、精度適応量子化技術を採用し、極限のメモリ効率を維持しながら推論精度を向上させます。
Llama-3.1-8B-Instruct は Llama-3-8B の命令調整バージョンで、IQ-DynamicGate 技術を用いた超低ビット量子化(1-2 ビット)を採用し、メモリ効率を維持しながら精度を向上させています。
Chunte
フラックス.1-開発版はテキストから画像生成技術に基づくモデルで、テキストプロンプトを通じて多様な画像コンテンツを生成できます。
tdns03
Whisper-smallを微調整した韓国語発音品質評価モデルで、韓国語発音を1-5点で評価可能
legraphista
これは DeepSeek-Coder-V2-Instruct モデルの GGUF 量子化バージョンで、llama.cpp の IMatrix 技術を使用して最適化された量子化が行われています。このモデルは、コード生成とプログラミングタスクに特化して最適化されており、1-bit から 8-bit までの複数の量子化オプションを提供し、さまざまなハードウェア環境での効率的な推論に適しています。