为创始人提供自动化常规任务的应用程序推荐
mradermacher
这是一个基于Pythia-70m模型的量化版本,专门针对Wikipedia段落数据进行优化,提供多种量化类型以适应不同资源需求。
vandijklab
基于Pythia-1b架构预训练的模型,通过Cell2Sentence框架在单细胞RNA测序数据上微调,适用于多种单细胞及多细胞分析任务。
基于Pythia-410m架构的模型,通过Cell2Sentence方法在单细胞RNA测序数据上微调,适用于多种单细胞和多细胞分析任务。
基于Pythia-410m架构的细胞类型预测模型,通过Cell2Sentence方法将scRNA-seq数据转化为'细胞句子'进行微调,专注于单细胞RNA测序数据的细胞类型预测。
OEvortex
vortex-3b是由OEvortex开发的27.8亿参数因果语言模型,基于Pythia-2.8b模型并在Vortex-50k数据集上微调。
这是一个基于Pythia-160m语言模型,使用Cell2Sentence方法在单细胞RNA测序数据上微调的模型,能够进行条件性细胞生成、无条件细胞生成和细胞类型预测。
Felladrin
基于EleutherAI/pythia-31m微调的3100万参数对话模型,支持多轮对话和多种任务场景
lomahony
基于Pythia-2.8b的因果语言模型,使用Anthropic人类偏好数据集进行监督式微调
基于Pythia-6.9b基础模型,使用Anthropic的hh-rlhf数据集进行监督式微调训练的因果语言模型
PygmalionAI
基于Pythia 1.4B去重版开发的指令微调模型,专长于小说创作与对话生成
databricks
Databricks推出的28亿参数指令微调大语言模型,基于pythia-2.8b架构,在1.5万条指令数据上微调而成,支持商业用途
Databricks推出的69亿参数指令微调大语言模型,基于Pythia-6.9b架构,允许商业用途
Databricks推出的120亿参数指令微调大语言模型,基于pythia-12b在15K条指令数据上微调而成,允许商业用途
OpenAssistant
基于Pythia 12B架构的英文监督微调模型,通过Open-Assistant项目的人类反馈数据训练,专注于对话生成任务。
togethercomputer
基于EleutherAI Pythia-7B微调的70亿参数开源对话模型,使用100%负碳计算资源训练超过4000万条指令
EleutherAI
Pythia-1B是EleutherAI开发的可解释性研究专用语言模型,属于Pythia套件中的10亿参数规模版本,基于The Pile数据集训练。
lambdalabs
基于Pythia-2.8B去重版本微调的指令生成模型,针对合成指令数据集优化
Pythia-12B是EleutherAI开发的可扩展语言模型套件中的最大模型,拥有120亿参数,专为促进大语言模型科学研究而设计
Pythia-12B-deduped是EleutherAI开发的12B参数规模的大型语言模型,专为可解释性研究设计,在去重后的Pile数据集上训练。
Pythia-6.9B是EleutherAI开发的大规模语言模型,属于Pythia可扩展套件的一部分,专为促进可解释性研究而设计。