DeepMindのCEOであるデミス・ハサビスは、汎用人工知能(AGI)が5年以内に実現する可能性があると予測している。彼は、現在のAIは短期的には過度に宣伝され、長期的には深刻に見下されている段階であると指摘し、AI革命の影響は産業革命の10倍であり、10倍のスピードで進展すると強調している。
OpenAIがロンドン・キングスクロスに初の恒久オフィスを開設。Google DeepMindやMetaに隣接し、約8.85万平方フィートのスペースで500名以上を収容可能。英国の人材層の厚さを評価。....
グーグルDeepMindはAI競争で先頭に立つため、会社全体の計算力と人材を統合し、内部の壁を取り除き、追従者からリーダーへと変貌させ、運用効率はスタートアップ企業と同様となった。CEOのハサビス氏は、計算力がAI研究における最大の課題であり、資源の統合により競争力を再構築したと強調した。
DeepMindが新オープンソースモデルGemma4を発表。性能が世代を超えて向上し、Apache2.0ライセンスに変更され、商用利用や二次開発が容易に。4種類のモデルで、モバイルからワークステーションまで幅広いニーズに対応。....
Google DeepMindの旗艦的なマルチモーダルAIで、100万トークンのコンテキストを持ち、博士レベルの推論能力と高度なコーディング能力を備えています。
Nano Banana 2 は Google DeepMind が開発したプロフェッショナルな AI 画像編集ツールです。
Google DeepMindが開発した、最先端のAI天気予報技術です。
Gemini Proは、Google DeepMindが開発した高性能AIモデルであり、複雑なタスク処理とプログラミング性能に特化しています。
Google
-
入力トークン/百万
出力トークン/百万
コンテキスト長
$0.14
$0.28
131
$1
$17.5
$70
2.1k
brittlewis12
Gemma 3 4B IT GGUFはGoogle DeepMindが開発した軽量オープンソース言語モデルで、Geminiモデルと同じ研究と技術に基づいて構築されています。このモデルは128Kの大きなコンテキストウィンドウを持ち、140種類以上の言語をサポートし、GGUF形式を採用しているため、さまざまなデバイスでの展開と実行が容易です。
Gemma 3 1B IT GGUFは、Google DeepMindが開発した軽量オープンソース言語モデルのGGUF形式のバージョンです。このモデルは、Gemma 3 1B IT(命令微調整)モデルを基に変換され、128Kの大きなコンテキストウィンドウを持ち、140種類以上の言語をサポートし、リソースが限られた環境でのデプロイに適しています。
Crystalcareai
GemMoEは、Deepmindのジェンマアーキテクチャに基づく専門家混合(MoE)モデルであり、8つの個別に微調整されたジェンマモデルを融合し、各トークンに2人の専門家を備えており、強力でトレーニングと推論が容易です。
HuggingFaceM4
IDEFICSはDeepmindが開発したクローズドソースの視覚言語モデルFlamingoのオープンソース再現版で、マルチモーダル入力(画像+テキスト)をサポートし、テキスト出力を生成します。
IDEFICSはDeepmindが開発したクローズドソースの視覚言語モデルFlamingoのオープンソース再現版で、任意のシーケンスの画像とテキスト入力を受け取り、テキスト出力を生成できるマルチモーダルモデルです。
IDEFICSはオープンソースのマルチモーダルモデルで、画像とテキスト入力を処理しテキスト出力を生成できます。Deepmind Flamingoモデルのオープンソース再現版です。
IDEFICS-9Bは90億パラメータのマルチモーダルモデルで、画像とテキスト入力を処理しテキスト出力を生成できます。DeepmindのFlamingoモデルのオープンソース再現版です。
oandreae
このモデルはdeepmind/language-perceiverをfinancial_phrasebankデータセットでファインチューニングした金融テキスト感情分類モデルです。
deepmind
ImageNetで事前学習された汎用ビジュアルパーサーバーモデルで、学習型位置埋め込みを用いて画像入力を処理します。
BERTに基づくマスク言語モデリングタスクで事前学習され、UTF - 8バイト入力をサポートするマルチモーダルTransformerモデル
ImageNetで事前学習された汎用視覚パーシバーモデルで、畳み込み前処理とトランスフォーマーアーキテクチャを採用し、画像分類タスクをサポート
Perceiver IOは、複数のモーダルデータを処理できる汎用Transformerアーキテクチャです。このモデルは画像分類タスク用に設計され、ImageNetデータセットで事前学習されています。