xAIがGrok4.1を発表。応答遅延42%削減、意図認識精度18%向上。Grok-4MoEアーキテクチャを基に、リアルタイムフィードバック層と個人化キャッシュを追加し、瞬時応答を実現。X Premium+ユーザーは無制限利用可能。MT-Benchスコア8.97、HumanEvalコード生成87.1%、対話一貫性91.4%で新記録。....
アリババグループは業界初の高性能な拡散言語モデル推論フレームワークであるdInferをオープンソースで公開し、推論速度を著しく向上させました。ベンチマーキングテストによると、これはNVIDIAのFast-dLLMよりも10.7倍高速で、HumanEvalコード生成タスクにおいて単一の推論で1秒間に1011トークンを処理でき、技術の実用化を前進させています。
10月13日、アリグループが高性能拡散言語モデル推論フレームワークdInferをオープンソース化。NVIDIA Fast-dLLMより10.7倍高速で、HumanEvalタスクでは1011Tokens/秒を達成。拡散モデルが自己回帰モデルを初めて上回った。....
Rabbit社は先日、ブログ記事と動画を公開し、同社の「万能Androidエージェント」の機能を紹介しました。このエージェントはAndroidタブレット上でアプリを制御でき、1年前に約束されていたRabbit R1デバイスにはなかった機能を示しています。Humane AI Pinは苦戦を強いられていますが、Rabbitは前進を続けているようです。今回のデモでは、Rabbit R1デバイスは使用されていませんでした。
AIオペレーティングシステム。スマートデバイスにパーソナライズされたアシスタントを提供します。
わずか100ドルで、Humane Pinを自作できます。
Eemansleepdeprived
AI生成テキストをより人間らしい内容に変換するために設計された先進的なテキスト変換モデルで、強力なAIコンテンツ検知防御機能を提供します。
saurabhswami
Flux.1(開発版)でトレーニングされたLoRAモデルで、白背景のシンプルな線画イラストスタイルに特化
ibm-granite
IBM Granite 8Bコード命令モデルは、コード生成と解説に特化したAIモデルで、複数のプログラミング言語をサポートし、HumanEvalなどのベンチマークテストで優れた性能を発揮します。
professorf
Phi-1は、Pythonコーディングに特化した13億パラメータのTransformerモデルで、GGUF形式の量子化バージョンを提供し、CPU+GPU推論をサポートします。このモデルは、単純なPythonコーディングのベンチマークであるHumanEvalで50%を超える正解率を達成し、基礎的なPythonプログラミングタスクに特化しています。
TechxGenus
starcoder2-instructはstarcoder2-7bをベースに微調整されたコード生成モデルで、追加の7億の高品質コードラベルを使用して3ラウンドの微調整を行い、HumanEval-Pythonで73.2 pass@1の優れた成績を達成し、コード生成タスクに特化して最適化されています。
starcoder2-3bモデルを微調整した大規模言語モデルで、コード生成タスクに特化しており、HumanEval-Pythonテストで65.9 pass@1の成績を達成
WhiteRabbitNeo
三位一体は汎用プログラミングAIで、HumanEvalテストで70点を達成しました。
WizardLMTeam
WizardCoder-33B-V1.1はdeepseek-coder-33b-baseをベースに訓練されたオープンソースのコード大規模言語モデルで、HumanEvalやMBPPなどのベンチマークテストで優れた性能を発揮し、SOTAオープンソースコードLLMとなっています。
budecosystem
Bud Code Millenials 34Bは、コード生成タスク用に特別に微調整された大規模言語モデルで、HumanEvalベンチマークテストで80.48@Pass1の優れた成績を達成し、性能はGPT - 4に匹敵し、Gemini Ultra、Claude、GPT - 3.5などの専用モデルを上回っています。
glaiveai
Glaive-coder-7bは70億のパラメータを持つコード生成モデルで、CodeLlama-7bモデルをベースに微調整されています。このモデルは約14万個のプログラミング関連の問題と解決策のデータセットを使用してトレーニングされており、これらのデータはGlaiveの合成データ生成プラットフォームから生成されました。HumanEvalテストでは63.1%のpass@1、MBPPテストでは45.2%のpass@1を達成しています。
microsoft
Phi-1は13億パラメータのTransformerモデルで、Python基礎プログラミング向けに設計されており、HumanEvalベンチマークで50%以上の精度を達成
Phind
Phind-CodeLlama-34B-v2はPhind-CodeLlama-34B-v1を微調整したオープンソースのコード生成モデルで、HumanEvalテストで73.8%のpass@1を達成し、現在のオープンソースモデルの中で最先端の性能を誇ります。
TheBloke
WizardCoder Python 13B V1.0はWizardLMによって開発された大規模言語モデルで、Pythonコード生成タスクに特化しており、llama2アーキテクチャに基づいており、HumanEvalベンチマークテストで優れた性能を発揮します。
CodeLlama-34B-Pythonをファインチューニングした大規模言語モデルで、HumanEvalでpass@1が69.5%を達成し、GPT-4の性能を上回る
Phind-CodeLlama-34B-v1はCodeLlama-34Bをベースに微調整された高性能なコード生成モデルで、HumanEvalデータセットで67.6%のpass@1スコアを達成し、GPT-4の性能を上回っています。このモデルは厳格なデータ汚染除去処理を経ており、訓練が効率的で結果が信頼できます。
WizardCoder-33B-V1.1はdeepseek-coder-33b-baseをベースに訓練されたオープンソースのコード大規模言語モデルで、HumanEvalなどのコード生成ベンチマークで優れた性能を発揮します。