創業者が日常業務の自動化に役立つアプリを紹介するアプリケーション
mradermacher
これはPythia - 70mモデルに基づく量子化バージョンで、ウィキペディアの段落データに特化して最適化されており、さまざまな量子化タイプを提供して異なるリソース要件に対応します。
vandijklab
Pythia-1bアーキテクチャに基づいて事前学習されたモデルで、Cell2Sentenceフレームワークを用いて単細胞RNAシーケンスデータで微調整されており、様々な単細胞および多細胞解析タスクに適しています。
Pythia-410mアーキテクチャに基づくモデルで、Cell2Sentenceメソッドを用いて単細胞RNAシーケンスデータで微調整され、様々な単細胞および多細胞分析タスクに適しています。
Pythia-410mアーキテクチャに基づく細胞タイプ予測モデルで、Cell2SentenceメソッドによりscRNA-seqデータを'細胞文'に変換して微調整を行い、単細胞RNAシーケンスデータの細胞タイプ予測に特化しています。
OEvortex
vortex-3bはOEvortexによって開発された27.8億パラメータの因果言語モデルで、Pythia-2.8bモデルをベースにVortex-50kデータセットでファインチューニングされています。
これはPythia-160m言語モデルを基に、Cell2Sentence手法を用いて単細胞RNAシーケンスデータでファインチューニングされたモデルで、条件付き細胞生成、無条件細胞生成、細胞タイプ予測が可能です。
Felladrin
EleutherAI/pythia-31mをファインチューニングした3100万パラメータの対話モデルで、マルチターン対話と多様なタスクシナリオをサポート
lomahony
Pythia-2.8bベースの因果言語モデルで、Anthropicの人間嗜好データセットを使用した教師ありファインチューニングを実施
Pythia-6.9bベースモデルを使用し、Anthropicのhh-rlhfデータセットで教師ありファインチューニングされた因果言語モデル
PygmalionAI
Pythia 1.4B重複排除版を基に開発された命令微調整モデルで、小説創作と対話生成に特化
databricks
Databricksが開発した28億パラメータの命令微調整大規模言語モデル。pythia-2.8bアーキテクチャを基盤とし、1.5万件の命令データで微調整されており、商用利用が可能
Databricksが開発した69億パラメータの命令ファインチューニング大規模言語モデル。Pythia-6.9bアーキテクチャを基盤とし、商用利用が許可されています
Databricksが提供する120億パラメータの命令ファインチューニング大規模言語モデル。pythia-12bを15,000件の命令データでファインチューニングし、商用利用が許可されています
OpenAssistant
Pythia 12Bアーキテクチャに基づく英語の教師ありファインチューニングモデルで、Open-Assistantプロジェクトの人間フィードバックデータで訓練され、対話生成タスクに特化しています。
togethercomputer
EleutherAI Pythia-7Bを微調整した70億パラメータのオープンソース対話モデル、100%カーボンネガティブな計算リソースを使用して4000万以上の命令でトレーニング
EleutherAI
Pythia-1BはEleutherAIが開発した解釈可能性研究専用の言語モデルで、Pythiaスイートの10億パラメータ規模バージョンであり、The Pileデータセットでトレーニングされています。
lambdalabs
Pythia-2.8Bの重複排除バージョンを基にした命令生成モデルで、合成命令データセットに最適化されています
Pythia-12BはEleutherAIが開発したスケーラブルな言語モデルスイートの中で最大のモデルで、120億のパラメータを持ち、大規模言語モデルの科学研究を促進するために設計されています
Pythia-12B-dedupedはEleutherAIによって開発された12Bパラメータ規模の大規模言語モデルで、解釈可能性研究用に設計され、重複排除されたPileデータセットで訓練されています。
Pythia-6.9BはEleutherAIが開発した大規模言語モデルで、Pythiaスケーラブルスイートの一部であり、解釈可能性研究を促進するために設計されています。