发现与 Bart 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
BertViz:可视化NLP模型中的注意力机制(BERT、GPT2、BART等)
LightSeq:一个用于序列处理和生成的,高性能库
基于PyTorch的开源预训练模型框架及预训练模型库
可以直接使用的Rust原生NLP管道和基于Transformer的模型(BERT、DistilBERT、GPT2等)
一个用Go语言编写的自包含机器学习和自然语言处理库
本项目实现了多种文本生成模型,例如LLaMA、ChatGLM、BLOOM、GPT2、Seq2Seq、BART、T5和UDA等,并支持模型的训练和预测,无需额外配置即可直接使用。
在Hugging Face Transformer框架中(包括bloomz-176B、bloom、gpt、bart、T5和MetaICL等模型),实现基于人类反馈的强化学习(RLHF)来训练ChatGPT。
韩语 BART 模型
用于“通过文本生成统一视觉和语言任务”(ICML 2021)的PyTorch代码
用于生成多语言、多领域问题的问答数据集、模型和Python库。
使用BERT构建和训练最先进的自然语言处理模型
AAAI 2022 论文“开放词汇脑电图到文本解码与零样本情感分类”的代码
使用预训练语言模型计算文本的困惑度。支持掩码语言模型(例如,DeBERTa),循环语言模型(例如,GPT3)和编码器-解码器语言模型(例如,Flan-T5)。
与论文《使用预训练Transformer模型进行数据增强》相关的代码
自动分类:该项目利用神经网络的力量,提供了一种自动对银行描述进行分类的解决方案,减少了人工操作,提高了效率,同时保护了隐私。
NAACL 2021 - 长文本的渐进式生成
ACL 2022 论文“IteraTeR:理解人工书写文本中的迭代修订”的官方实现
我们ACL 2021 Findings论文“JointGT:用于知识图谱文本生成的图文联合表示学习”的代码
首个涵盖印尼语、巽他语和爪哇语的大规模自然语言生成基准测试。我们提供了多个下游任务、预训练的IndoGPT和IndoBART模型以及入门代码!(EMNLP 2021)
EMNLP 2021论文《基于主题感知对比学习的抽象对话摘要》的代码