為創始人提供自動化常規任務的應用程序推薦
mradermacher
這是一個基於Pythia-70m模型的量化版本,專門針對Wikipedia段落數據進行優化,提供多種量化類型以適應不同資源需求。
vandijklab
基於Pythia-1b架構預訓練的模型,通過Cell2Sentence框架在單細胞RNA測序數據上微調,適用於多種單細胞及多細胞分析任務。
基於Pythia-410m架構的模型,通過Cell2Sentence方法在單細胞RNA測序數據上微調,適用於多種單細胞和多細胞分析任務。
基於Pythia-410m架構的細胞類型預測模型,通過Cell2Sentence方法將scRNA-seq數據轉化為'細胞句子'進行微調,專注於單細胞RNA測序數據的細胞類型預測。
OEvortex
vortex-3b是由OEvortex開發的27.8億參數因果語言模型,基於Pythia-2.8b模型並在Vortex-50k數據集上微調。
這是一個基於Pythia-160m語言模型,使用Cell2Sentence方法在單細胞RNA測序數據上微調的模型,能夠進行條件性細胞生成、無條件細胞生成和細胞類型預測。
Felladrin
基於EleutherAI/pythia-31m微調的3100萬參數對話模型,支持多輪對話和多種任務場景
lomahony
基於Pythia-2.8b的因果語言模型,使用Anthropic人類偏好數據集進行監督式微調
基於Pythia-6.9b基礎模型,使用Anthropic的hh-rlhf數據集進行監督式微調訓練的因果語言模型
PygmalionAI
基於Pythia 1.4B去重版開發的指令微調模型,專長於小說創作與對話生成
databricks
Databricks推出的28億參數指令微調大語言模型,基於pythia-2.8b架構,在1.5萬條指令數據上微調而成,支持商業用途
Databricks推出的69億參數指令微調大語言模型,基於Pythia-6.9b架構,允許商業用途
Databricks推出的120億參數指令微調大語言模型,基於pythia-12b在15K條指令數據上微調而成,允許商業用途
OpenAssistant
基於Pythia 12B架構的英文監督微調模型,通過Open-Assistant項目的人類反饋數據訓練,專注於對話生成任務。
togethercomputer
基於EleutherAI Pythia-7B微調的70億參數開源對話模型,使用100%負碳計算資源訓練超過4000萬條指令
EleutherAI
Pythia-1B是EleutherAI開發的可解釋性研究專用語言模型,屬於Pythia套件中的10億參數規模版本,基於The Pile數據集訓練。
lambdalabs
基於Pythia-2.8B去重版本微調的指令生成模型,針對合成指令數據集優化
Pythia-12B是EleutherAI開發的可擴展語言模型套件中的最大模型,擁有120億參數,專為促進大語言模型科學研究而設計
Pythia-12B-deduped是EleutherAI開發的12B參數規模的大型語言模型,專為可解釋性研究設計,在去重後的Pile數據集上訓練。
Pythia-6.9B是EleutherAI開發的大規模語言模型,屬於Pythia可擴展套件的一部分,專為促進可解釋性研究而設計。