必要なAIツールを、1ドルからご利用いただけます。
Dollie|専門的なWordPress管理ツール
AIでブログ記事を高速生成
mradermacher
これは gravitee-io/very-small-prompt-compression モデルの静的量子化バージョンで、提示圧縮とテキスト要約タスクに特化しています。このモデルは Dolly-15k 提示圧縮データセットを基にトレーニングされ、英語の言語処理をサポートし、複数の量子化レベルを選択できます。
Remade-AI
Wan2.1 14B I2V 480pモデルを基に訓練されたLoRAで、画像の主体にプロ級のドリーズームレンズ効果を追加できます。画像から動画(I2V)やテキストから動画(T2V)のタスクに適しています。
leafspark
WikiChat-v0.2は現在訓練中の対話モデルで、OpenOrca GPT-4データ、cosmopedia、dolly15kデータセットに基づいて訓練され、英語テキスト生成タスクをサポートします。
Brillibits
Llama-2-70Bを微調整した命令追従モデルで、Dolly15kデータセットでトレーニングされ、英語テキスト生成タスクに適しています。
CobraMamba
Mamba - GPT - 3B - V4は、性能が卓越した3Bパラメータの言語モデルで、Open LLMランキングで優れた成績を収め、dolly - v2 - 12bを上回り、高品質の言語処理能力を提供します。
pankajmathur
orca_mini_3bはOpenLLaMa-3Bモデルをベースに訓練されたテキスト生成モデルで、WizardLM、Alpaca、Dolly-V2データセットからの命令と入力を用いて説明的チューニングが施され、Orca研究論文のデータセット構築方法が適用されています。
togethercomputer
RedPajama-INCITE-Chat-3B-v1は、Together ComputerがオープンソースAIコミュニティのリーダーと共同で開発した28億パラメータのチャット言語モデルで、OASST1とDolly2のデータセットで微調整され、会話能力を強化するために特別に設計されています。
Togetherが複数のAI研究機関と共同開発した69億パラメータの対話専用言語モデル。RedPajama-Data-1Tデータセットで訓練され、OASST1とDolly2データでファインチューニングされ対話能力を強化
databricks
Databricksが開発した28億パラメータの命令微調整大規模言語モデル。pythia-2.8bアーキテクチャを基盤とし、1.5万件の命令データで微調整されており、商用利用が可能
Databricksが開発した69億パラメータの命令ファインチューニング大規模言語モデル。Pythia-6.9bアーキテクチャを基盤とし、商用利用が許可されています
Databricksが提供する120億パラメータの命令ファインチューニング大規模言語モデル。pythia-12bを15,000件の命令データでファインチューニングし、商用利用が許可されています
DollhouseMCPはModel Context Protocol(MCP)に基づくサーバーで、動的なAIキャラクター管理機能を提供し、GitHubコミュニティを通じたキャラクターの共有と商業化をサポートします。23個のツールが含まれ、キャラクターの作成、アクティブ化、編集、検証などの全ライフサイクル管理をカバーし、企業レベルのセキュリティ対策と自動更新システムを備えています。