为创始人提供自动化常规任务的应用程序推荐
Tencent
$3.5
输入tokens/百万
$7
输出tokens/百万
4
上下文长度
mradermacher
这是一个基于Pythia-70m模型的量化版本,专门针对Wikipedia段落数据进行优化,提供多种量化类型以适应不同资源需求。
vandijklab
基于Pythia-1b架构预训练的模型,通过Cell2Sentence框架在单细胞RNA测序数据上微调,适用于多种单细胞及多细胞分析任务。
基于Pythia-410m架构的模型,通过Cell2Sentence方法在单细胞RNA测序数据上微调,适用于多种单细胞和多细胞分析任务。
基于Pythia-410m架构的细胞类型预测模型,通过Cell2Sentence方法将scRNA-seq数据转化为'细胞句子'进行微调,专注于单细胞RNA测序数据的细胞类型预测。
OEvortex
vortex-3b是由OEvortex开发的27.8亿参数因果语言模型,基于Pythia-2.8b模型并在Vortex-50k数据集上微调。
这是一个基于Pythia-160m语言模型,使用Cell2Sentence方法在单细胞RNA测序数据上微调的模型,能够进行条件性细胞生成、无条件细胞生成和细胞类型预测。
Felladrin
基于EleutherAI/pythia-31m微调的3100万参数对话模型,支持多轮对话和多种任务场景
lomahony
基于Pythia-2.8b的因果语言模型,使用Anthropic人类偏好数据集进行监督式微调
基于Pythia-6.9b基础模型,使用Anthropic的hh-rlhf数据集进行监督式微调训练的因果语言模型
PygmalionAI
基于Pythia 1.4B去重版开发的指令微调模型,专长于小说创作与对话生成
OpenAssistant
pythia-12b-sft-8是基于pythia-12b模型进行监督微调(SFT)的大语言模型,专门针对对话和指令跟随任务进行了优化。该模型在多个高质量数据集上进行了训练,具备出色的文本生成和理解能力。
databricks
Databricks推出的28亿参数指令微调大语言模型,基于pythia-2.8b架构,在1.5万条指令数据上微调而成,支持商业用途
Databricks推出的69亿参数指令微调大语言模型,基于Pythia-6.9b架构,允许商业用途
Databricks推出的120亿参数指令微调大语言模型,基于pythia-12b在15K条指令数据上微调而成,允许商业用途
基于Pythia 12B架构的英文监督微调模型,通过Open-Assistant项目的人类反馈数据训练,专注于对话生成任务。
togethercomputer
基于EleutherAI Pythia-7B微调的70亿参数开源对话模型,使用100%负碳计算资源训练超过4000万条指令
EleutherAI
Pythia-1B是EleutherAI开发的可解释性研究专用语言模型,属于Pythia套件中的10亿参数规模版本,基于The Pile数据集训练。
Open-Assistant SFT-1 12B 是 Open-Assistant 项目的首个英文监督微调模型,基于 Pythia 12B 模型在约22000条人工对话示范数据上微调而成,专门用于英文对话任务。
lambdalabs
基于Pythia-2.8B去重版本微调的指令生成模型,针对合成指令数据集优化
Pythia-12B是EleutherAI开发的可扩展语言模型套件中的最大模型,拥有120亿参数,专为促进大语言模型科学研究而设计