GoogleはGeminiアプリに「すぐに答える」機能を追加し、ユーザーの待機不安を軽減。ワンクリックで深い思考をスキップし、迅速に回答を取得可能。Pro版と思考版モデルに対応し、ボタン横に読み込み状態が表示されます。....
アップルがFinal Cut Proの買切版とサブスクリプション版の機能に関する論争に反応し、Mac版の買切版オプションが保持され、価格は299.99ドルであることを確認した。また、視覚検索やテキスト検索、ビート検出などのAIコア機能は引き続きサポートされることが約束された。
OpenAIがChatGPTのグループチャット機能をリリース。最大20人同時参加可能で、AIも議論に参加。無料版からPro版まで全ユーザーに開放。会話画面右上の人物アイコンから作成し、招待リンクで参加者を募集できる。....
GoogleがGemini3大規模言語モデルを発表。AI StudioプラットフォームでPro Preview版を公開し、開発者や研究者向けにコンテキスト長や温度などのパラメータ調整機能を提供。....
無料でテキストからAIアート画像を生成します。4K対応、無水印、高速生成、Pro版にアップグレード可能です。
個人、チーム、企業向けプライベートAI生成コンテンツアプリケーションプラットフォーム
Xai
$1.4
入力トークン/百万
$3.5
出力トークン/百万
2k
コンテキスト長
Openai
-
Google
$0.7
$2.8
1k
Alibaba
$1
$10
256
Baidu
128
$4
$16
Bytedance
$0.8
$2
32
$8.75
$70
400
$0.35
Chatglm
$8
$3
$9
meta-llama
Llama Prompt Guard 2はMetaが提供するプロンプト攻撃検出モデルシリーズで、86Mパラメータのアップグレード版と22Mの軽量版を含み、大規模言語モデルアプリケーションにおけるプロンプトインジェクションやジェイルブレイク攻撃を検出します。
wikeeyang
DedistilledMixTuned Dev V3.0はFlux Dev微調整モデルをベースにしたアップグレード版で、モデル能力が高度に均衡しています。このモデルはLoRA互換性、リアリティ、画像生成品質、アート創作力などの面で優れた性能を発揮し、Flux Proモデルに非常に近いレベルです。階層的融合技術により逆蒸留の干渉を排除し、オリジナルのFlux.1 Devモデルと完全に互換性があります。
argmaxinc
WhisperKit ProはWhisperKitの商用版で、自動音声認識(ASR)タスクに特化し、量子化技術をサポートし、効率的な音声処理に適しています。
hugohrban
ProGen2-smallはNijkampらの研究に基づくタンパク質生成モデルで、軽微な設定調整とフォワードプロパゲーション処理を施したミラー版です。
dataautogpt3
ProteusV0.2はOpenDalleV1.1を基にした進化版で、コア機能の強化により卓越したテキストから画像への生成効果を実現し、特にプロンプト理解とスタイル表現において顕著な向上が見られます。
yarongef
ProtBert-UniRef100モデルの蒸留版、タンパク質特徴抽出と下流タスクのファインチューニング用
Microsoft MCP Server for Enterpriseは、Model Context Protocolに基づくパブリックプレビュー版のサーバーで、AIエージェントが自然言語クエリを通じてMicrosoft Entraデータにアクセスし、それをMicrosoft Graph API呼び出しに変換できます。開発者とIT管理者が組織のデータ管理をAIワークフローに統合するのを支援することを目的としています。
Node.js ExpressベースのCoinGecko暗号通貨データAPIインターフェースサーバーで、無料版とPro版のAPIを自動切り替えし、RESTfulインターフェースとMCP統合機能を提供します。
このプロジェクトは、Docs.rs 上の Rust ドキュメントに対して Model Context Protocol(MCP)サーバーインターフェイスを提供する実装で、Rust ドキュメントの内容を MCP プロトコルに対応したクライアント(Claude デスクトップ版など)で使用できるようにします。現在、このプロジェクトはメンテナンスが停止されていますが、機能は利用可能です。
このプロジェクトはModel Context Protocol(MCP)仕様を実装したサーバーで、MCPクライアント(Claudeデスクトップ版など)が標準化されたインターフェイスを通じてGoogleのGemini AIモデルと相互作用できるようにするブリッジとして機能します。複数のGeminiモデルと機能呼び出しをサポートし、単発の質問、複数回の会話、関数呼び出しなどのツールを提供し、ローカルまたはDockerでのデプロイが可能です。