KimiチームがKimi K2の技術報告を発表しました。この1兆パラメータ規模の大規模モデルは、320億のアクティブパラメータを備え、グローバルなオープンソースモデル競技で優勝し、GPT4.5などのトップレベルのクローズドソースモデルと同等の性能を発揮しました。その革新点には、MuCoClipオプティマイザを使用して15.5トランプットンのデータを損失なしで処理すること;多分野のツールデータ合成パイプラインを開発すること;独自のリスティート法によりトレーニング効率を向上させ、1ラウンドのデータリライトが元のデータの10ラウンドよりも効果的であること;監督微調整+強化学習によってモデルの性能を最適化することなどが含まれます。モデルはNに基づいています。
AlibabaがオープンソースAIプログラミングモデル「Qwen3-Coder」をリリース。MoEアーキテクチャ採用で480億パラメータ、7.5TBコードデータで学習。256Kトークン対応、Claude4並みの性能。GPT4.1を上回り、複雑なプログラミングタスクに強く、3Dシミュレーション生成も可能。魔搭コミュニティなどで公開、Alibaba Cloudサービスにも統合。....
xAIは最近、最新のAIモデルGrok-3がChatbot Arenaランキングで高い評価を得たというエキサイティングなニュースを発表しました。 「grok-3preview-02-24」と名付けられたこのモデルは、いくつかの重要な分野で卓越した性能を示しました。xAIのGrok-3-Preview-02-24は、僅か1点差でGPT4.5-Previewを上回りました。Grok-3は3,000票以上を獲得し、全体として…
本日、イーロン・マスク率いるxAIは、最新モデルGrok3を正式発表しました。マスク氏はこれを「地球上で最も賢いAI」と称しました。ChatGPT、Gemini、DeepSeek、Claudeなどとの競争となります。発表会では、xAIは多くのベンチマークテストを実施し、Grok3がGemini2Pro、Claude3.5Sonnet、GPT4o、Deeなどを数学、科学、コーディングのベンチマークテストで上回ったことを示しました。
高度なAI対話型生成器。無料で回答を入手できます。
革命的なAI技術、マルチモーダルインテリジェントインタラクション
GPT4 Omniは、単なる音声アシスタント以上の製品です。
AIを使ってHTMLまたはReactコンポーネントを開発し、GPT4とチャットできます。
Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
-
Bytedance
$0.8
$2
128
Alibaba
$0.4
$8.75
$70
400
$1.75
$14
$0.35
64
$0.63
$3.15
131
$1.8
$5.4
16
Tencent
32
$17.5
$56
$0.7
$2.4
$9.6
$525
$1050
Xai
$21
$105
$3.5
$10.5
geoffmunn
これはQwen/Qwen3-Coder-30B-A3B-Instruct言語モデルのGGUF量子化バージョンで、ローカル推論用に最適化されており、llama.cpp、LM Studio、OpenWebUI、GPT4Allなどのフレームワークをサポートしています。このモデルは30Bパラメータ規模のコード生成とプログラミングアシスタントモデルです。
これはQwen/Qwen3-14B言語モデルのGGUF量子化バージョンで、140億のパラメータを持ち、深い推論能力、研究レベルの正確性、自律的なワークフローを備えています。変換後、llama.cpp、LM Studio、OpenWebUI、GPT4Allなどのローカル推論フレームワークで使用できます。
これはQwen/Qwen3-0.6B言語モデルのGGUF量子化バージョンで、6億のパラメータを持つコンパクトな大規模言語モデルで、低リソースデバイスでの超高速推論用に設計されています。llama.cpp、LM Studio、OpenWebUI、GPT4Allなどのフレームワークをサポートし、どこでもオフラインでプライベートAIを使用できます。
Vimax97
Florence-2-base-ftを微調整したGPT4-Oスタイルの字幕ジェネレーターで、画像説明を生成するために使用されます
mav23
GPT4All-FalconはApache 2.0ライセンスに基づくチャットボットで、Falcon-7Bモデルをベースに微調整され、大規模で精心に策定されたアシスタント対話コーパスで訓練され、さまざまな対話タスクとコンテンツ生成をサポートします。
tensorblock
GPT4All FalconはFalconアーキテクチャに基づく大規模言語モデルで、Nomic AIによって開発されました。このモデルは量子化処理が施され、複数の精度バージョンを提供しており、さまざまな計算リソースと品質要件のシナリオに適しています。
GPT4All-Community
Qwen2-7B-Instructの量子化バージョンで、特殊な設定によりより高効率な推論性能を提供し、同時に高品質な出力を維持します。このモデルは多言語処理をサポートし、優れたコード生成と数学的推論能力を備え、YARN技術によりコンテキスト長を131,072トークンまで拡張できます。
ragraph-ai
これはCYPHERクエリ文を生成するために特化した30億パラメータのモデルで、CYPHERの生成においてGPT4 - oなどのSOTAモデルを上回っています。このモデルは特定のデータセットを基に微調整され、テキストをCYPHERクエリ文に変換してGraphDB(Neo4jなど)をクエリすることができます。
TechxGenus
DeepSeek-Coder-V2はオープンソースの混合専門家(MoE)コード言語モデルで、特定のコードタスクではGPT4-Turboに匹敵する性能を実現します。
Lin-Chen
GPT4Vアノテーションデータでファインチューニングされたオープンソースのビデオ記述ジェネレーターで、異なる長さ、アスペクト比、解像度のビデオをサポート
ShareCaptionerはオープンソースの画像記述生成モデルで、改良されたInternLM-Xcomposer-7Bベースモデルに基づき、GPT4-Vision支援のShareGPT4Vデータセットで微調整され、高品質な画像記述を生成できます。
ShareGPT4V-7Bは、GPT4-Vision補助データとLLaVA命令ファインチューニングデータを使用してトレーニングされたオープンソースのマルチモーダルチャットボットモデルです。
TheBloke
Vicuna-13B-1.1モデルをベースに、複数の高品質なGPT-4生成データセットでファインチューニングされた大規模言語モデル
MetaIX
GPT4-X-Alpaca 30B 4-bitは、GPT4-Alpaca Lora 30Bをベースに構築された4ビット量子化バージョンで、Oobaboogaテキスト生成WebuiとKoboldAIのGPTQバージョンと互換性があり、効率的な推論性能を提供します。
anon8231489123
GPT4とAlpaca命令ファインチューニングを基にした13Bパラメータ言語モデル、4ビット量子化推論をサポート
chavinlo
Alpaca-13Bベースモデルを基に、GPT4で生成した応答を用いて3回の微調整を施した大規模言語モデル
pawelppppaolo
TypeScriptベースのMCPサーバーで、AI画像および動画生成機能を提供します。GPT4O Image GeneratorのAPIキーが必要です。
TypeScriptに基づくMCPサーバーで、AI画像と動画生成機能を提供し、GPT4O Image GeneratorのAPIキーが必要です。
gpt4freeプロジェクトのMCPサーバー