AI専門家であるパン・ティアンユーが騰訊混元に加入し、首席研究科學家および多モーダル強化学習技術責任者を務め、多モーダル生成と理解の先端的な課題に挑むトップチームの構築を担当する。パン・ティアンユーは清華大学計算機科学系の博士課程在籍中で、朱軍教授の指導を受け、深い学術的背景を持つ。
OpenAIはAI事業拡大のため1000億ドル調達を計画。主要チップ供給元のNVIDIAは追加で300億ドル投資を検討中。同社の計算能力はOpenAIモデル訓練の中核を支えている。....
中国電信人工知能研究院がGVC生成型動画圧縮技術を発表しました。圧縮率は0.02%に達し、1GBの動画は約200KBのデータを送信するだけで明確な画質に復元できます。そのコアは「計算で帯域を換える」ことであり、従来の画像を搬送する論理とは異なり、AIモデルが動画の内容特徴を学習し、受信側で画面上を知的再構築することで、送信データ量を大幅に削減します。この技術は動画ストレージと動画ストリーミング伝送の革新をもたらすと期待されています。
腾讯は大規模モデル戦略を強化し、AI研究開発体制を再編。新たにAIインフラ、データ・計算プラットフォーム部門を設置し、フルスタック能力を構築。戦略を「インフラ+エンジニアリング+実装」の三位一体に昇格。元OpenAI研究員の姚順雨氏が首席AI科学者に就任。....
Openai
$7.7
入力トークン/百万
$30.8
出力トークン/百万
200
コンテキスト長
Tencent
$1
$4
32
-
Alibaba
$0.75
256
$1.75
$14
400
$3
4
$0.5
Google
$100
spartan8806
これはsentence-transformers/all-mpnet-base-v2を微調整した文変換器モデルで、テキストを768次元の密ベクトル空間にマッピングでき、意味類似度計算、意味検索、テキスト分類などのさまざまな自然言語処理タスクをサポートします。
mlx-community
これはKimi-Linear-48B-A3B-Instructモデルを変換した6ビット量子化バージョンで、Apple MLXフレームワーク用に最適化されています。このモデルは元のモデルの強力な指令追従能力を保持しながら、量子化技術により格納と計算の要件を大幅に削減し、Appleハードウェアで効率的に動作するのに適しています。
Minthy
これはRouWei-0.8に基づく実験的な事前学習モデルで、16チャンネル潜在空間アーキテクチャを採用し、Fluxオートエンコーダを使用しています。このモデルは、低い計算コストでより細かい画像の細部を実現し、同時に元のモデルの知識と性能を保持することを目的としています。
redis
これはsentence-transformersライブラリを微調整したBiEncoderモデルで、LangCacheの意味キャッシュタスクに特化して最適化されています。モデルは文や段落を384次元のベクトル空間にマッピングし、意味類似度計算や意味検索などのタスクをサポートします。
これはMLX形式に変換されたテキスト埋め込みモデルで、GoogleのEmbeddingGemma - 300mモデルを元に変換され、文の類似度計算とテキスト埋め込みタスクに特化しています。モデルはBF16精度を採用し、Appleチップ搭載のデバイスでの効率的な推論に適しています。
EmbeddingGemma-300m-8bitはsentence-transformersライブラリに基づいて実装された文の類似度モデルで、MLX形式での実行をサポートし、文の埋め込みと類似度の計算に特化しています。このモデルは元のモデルから変換され、効率的なテキスト特徴抽出能力を提供します。
DevQuasar
本プロジェクトは、騰訊の混元-MT-7B大規模言語モデルの量子化バージョンを提供します。モデル圧縮技術を通じて計算と記憶の要件を削減し、知識をすべての人に利用可能にすることを目指し、高性能なAIモデルをより普及させ、使いやすくします。
これはValiantLabs/gpt-oss-20b-ShiningValiant3モデルの量子化バージョンで、知識をすべての人に利用できるようにすることを目指しています。このモデルは量子化技術を通じてモデルサイズと計算要件を削減し、同時に元のモデルのテキスト生成能力を維持しています。
Derur
これは、様々な小言語のGGUF形式の大規模言語モデルを収集した選りすぐりのコレクションで、ロシア語、英語、ドイツ語などの多くの言語をサポートし、事実照会、数学計算、文化ユーモア、倫理フィルターなどの複数のテスト次元をカバーしています。
Nihal2000
これはsentence-transformers/all-MiniLM-L6-v2モデルのTensorFlow Lite変換版で、エッジデバイス向けに最適化されています。このモデルはテキストを384次元のベクトル空間にマッピングでき、意味検索やテキストの類似度計算などのタスクをサポートします。Float32とINT8量子化の2つのバージョンが提供され、量子化バージョンのサイズは約4分の1に縮小され、CPU上での実行速度が大幅に向上します。
tencent
混元は騰訊がオープンソースした効率的な大規模言語モデルシリーズで、様々な計算環境での多目的デプロイに特化して設計されています。エッジデバイスから高並発生産システムまで、これらのモデルは高度な量子化サポートと超長文脈能力を活用して、最高のパフォーマンスを実現します。
hemantn
AbLang2は、オックスフォードタンパク質情報学グループによって開発された、抗体配列に特化したTransformer言語モデルです。抗体配列分析、復元、および表現学習を行うことができ、抗体設計と研究に強力な計算ツールを提供します。
NCSOFT
GME-VARCO-VISION-Embeddingはマルチモーダル埋め込みモデルで、高次元埋め込み空間においてテキスト、画像、ビデオ間の意味的類似度を計算することに特化しており、特にビデオ検索タスクに長けています。
meandyou200175
これはmultilingual-e5-largeをファインチューニングした文変換モデルで、テキストを1024次元ベクトル空間にマッピングし、意味的類似度計算やテキスト検索などのタスクに使用されます。
RedHatAI
Qwen3-30B-A3B-FP8-dynamicはQwen3-30B-A3BモデルをFP8量子化で最適化したバージョンで、メモリ要件と計算コストを大幅に削減しながら、元のモデルの高い精度を維持しています。
nytopop
Qwen/Qwen3-14Bモデルに基づくInt8量子化バージョンで、AmpereアーキテクチャのGPUに特化して最適化されています。W8A8量子化技術により、メモリ使用量と計算要件を大幅に削減しながら、元のモデルに近い性能を維持します。
Detomo
sentence-transformersフレームワークで訓練された建築分野専用日本語文類似度計算モデル。テキストを768次元ベクトル空間にマッピングし意味的類似度分析を可能にする
GreenNode
これはsentence-transformersベースのベトナム語埋め込みモデルで、英語とベトナム語をサポートし、テキストを1024次元ベクトル空間にマッピングし、意味的類似性計算と検索タスクに使用されます。
manishh16
ModernBERTアーキテクチャを基に最適化された法律分野の埋め込みモデルで、多次元特徴抽出と文類似度計算をサポート
jonny9f
これはsentence-transformers/all-mpnet-base-v2からファインチューニングされた文変換モデルで、テキストを768次元のベクトル空間にマッピングし、意味類似度計算などのタスクに使用できます。
ウェブベースの複利計算機で、初期元本と毎月の投資をサポートし、30年間の投資予測と詳細な年次増加分析を提供します。