LiblibAIが1.3億ドルのB輪資金調達を完了。シーコア・チャイナ、CMCキャピタルなどが主導。国内AIアプリ分野で過去最大の融資となり、投資重点が基盤モデルから応用層へ移行中を示す。....
第6回中国インターネット基盤資源大会が「生成型人工知能応用発展報告書(2025年)」を発表しました。2025年6月現在、中国における生成型AIユーザー数は5億1,500万人で、普及率は36.5%です。上半期に2億6,600万人が増加し、成長率は106.6%で、ユーザー数が半年で倍増し、急速な発展傾向を示しています。
騰訊QQブラウザが無料のAI公考通機能をリリースし、公務員試験受験者向けにスマートな職位選択サービスを提供しています。この機能は騰訊雲の技術を基盤とし、全国の数万の募集サイト情報をリアルタイムで集約し、受験者が各地の募集公告や職位推薦を簡単に取得できるようにし、情報収集の難題を解決します。
Suzhou Zhongkeと湖南Huishiweiは长沙でJuzhou V1.5エンドサイド版を共同で発表しました。これは中国製の計算力によって訓練された視覚基盤の大規模モデルにおいて重要なアップグレードであり、初めてエンドサイドで実用化されました。新バージョンは単一システムから全体的なエコシステムへの転換を実現し、Androidシステムに完全対応し、クロスプラットフォームかつ多チップのエンドサイドAI配置能力を構築し、中国製AIビジュアル技術がエンドサイド配備分野で新たな突破を遂げたことを示しています。
Mochii AIは、最先端のモデルを基盤としたパーソナライズされたAIエコシステムであり、人間とAIの協働の未来を支援します。
Evo 2は、DNA、RNA、タンパク質の遺伝暗号を解読するための強力なAI基盤モデルです。
Gemini Code Assistは、Gemini 2.0を基盤とした無料のAIプログラミングアシスタントです。コード生成、コードレビューなどの機能を提供します。
AI共同研究者はGemini 2.0を基盤としたマルチエージェントAIシステムであり、科学者が新たな研究仮説と実験計画を生成し、科学的発見を加速することを目指しています。
anthropic
$21.6
入力トークン/百万
$108
出力トークン/百万
200k
コンテキスト長
-
mistral
$0.72
$2.16
256k
reka-ai
128k
openai
$3.6
$10.8
4.1k
google
8k
meta
cyberdelia
サイバーリアリスティックな小馬流モデルは、リアルな画像の生成に特化したAIモデルで、仕事シーンに適した画像や仕事シーンに適さない画像の生成要件を処理できます。完全な状態には至っていませんが、しっかりとした基盤アーキテクチャを備えています。
Mungert
Granite-3.2-2B-Instructは20億パラメータの長文脈AIモデルで、思考推論能力に特化してファインチューニングされています。Granite-3.1-2B-Instructを基盤とし、緩やかなライセンスのオープンソースデータセットと内部生成の合成データを混合使用してトレーニングされ、推論タスクのパフォーマンス向上を目的としています。
ritvik77
Mistral-7B言語モデルを基盤とし、LoRA微調整と4bit量子化技術で最適化された医療診断AIモデルで、症状分析と疾病診断補助に特化しています。
HyperX-Sentience
ドミネーターはカンドゥAIが開発した最先端のテキスト生成画像モデルで、安定拡散v1.5を基盤としており、テキスト記述から高品質で詳細な画像を生成できます。
microsoft
MagmaはマルチモーダルAIエージェントの基盤モデルで、画像とテキスト入力を処理しテキスト出力を生成可能。仮想と現実環境における複雑なインタラクション能力を備えています。
ai21labs
AI21 Jamba 1.5 Mini は、効率的な長文コンテキスト処理能力と高速な推論速度を備えた先進的なハイブリッドSSM-Transformer命令追従型基盤モデルです。
Salesforce
xGen-MMはSalesforce AI Researchが開発した最新の基礎大規模マルチモーダルモデル(LMMs)シリーズで、BLIPシリーズの成功した設計を基に改良され、基礎的な強化によりより強力で優れたモデル基盤を確保しています。
xGen-MMはSalesforce AI Researchが開発した最新の基盤大規模マルチモーダルモデルシリーズで、BLIPシリーズを改良し、強力な画像理解とテキスト生成能力を備えています。
suinleelab
CLIP ViT-L/14アーキテクチャに基づく視覚-言語基盤モデルで、皮膚病学画像分析に特化し、医学文献で訓練された透明性のある医療画像AI
StanfordAIMI
CheXagentは胸部X線画像の解読に特化した基盤モデルで、先進的なAI技術により医療画像解析の精度と効率を向上させることを目的としています。
CheXagentは胸部X線画像解釈に特化した基盤モデルで、先進的なAI技術による医療画像解析支援を目的としています。
Josephgflowers
Cinderは科学と教育対話に特化したAIチャットボットで、TinyLlama 11億パラメータモデルを基盤とし、多様な独自データセットでトレーニングされています。
brucethemoose
これはmergekitのDARE Ties手法でマージされた34Bパラメータの大規模言語モデルで、Yi-34B-200Kアーキテクチャを基盤とし、Nous-Capybara-34B、Tess-M-v1.3、airoboros-3_1-yi-34b-200kの3つのモデルの能力を統合しています。
TheBloke
Japanese StableLM Instruct Gamma 7BはStability AIによって開発された日本語大規模言語モデルで、Mistralアーキテクチャを基盤としており、日本語の命令理解と生成タスクに特化しています。
linhvu
LLaMA-7BはMeta AIが開発した効率的な基盤言語モデルで、Transformerアーキテクチャに基づき、パラメータ数は70億で、自然言語処理研究に適しています。
elinas
LLaMAはMeta AIによって開発されたTransformerアーキテクチャに基づく効率的な基盤言語モデルで、7Bパラメータバージョンを提供し、多様な言語処理タスクをサポートします。
baffo32
LLaMAはMeta AIが開発した効率的な基盤言語モデルで、7Bから65Bまでの異なるパラメータ規模を提供し、Transformerアーキテクチャに基づき、様々な自然言語処理タスクに適用可能です。
shalomma
Meta AIが開発した7Bパラメータ規模のオープンソースで効率的な基盤言語モデル。Transformerアーキテクチャをベースに、多言語対応(主に英語)
squish
チェスの盤面状態に基づいて最善手を予測するAIモデル