探索AI前沿,掌握行业发展趋势
每日精选AI热点,追踪最新行业动态
精准筛选产品,多维度产品调研
热门AI产品实力、热度、年/月/日排行
提交AI产品信息,助力产品推广和用户转化
一站式AI工具指南,快速找到你需要的工具
涵盖各类AI模型,满足你的开发与研究需求
热门AI大模型性能、热度、年/月/日排行
寻找优质模型提供商,获取可靠模型支持
提交模型信息和服务,精准推广和触达用户
多维度对比大模型,找到最适合你的模型
精准计算大模型使用成本,合理规划预算
多模型实时评测,模型输出结果快速比对
聚集热门MCP服务,快速找到适合你的服务
轻松接入MCP客户端,调用强大的AI能力
学习MCP使用技巧,从入门到精通
热门MCP服务性能排行,帮你找到最佳选择
发布你的MCP服务,推广你的MCP服务
自由测试MCP服务,线上快速体验
快速测试MCP服务,快速上线
通过AI搜索优化服务,让品牌在AI中实现霸屏
检测品牌在AI平台中的可见度
一键检测电脑配置,研判运行模型的兼容性
提供用于训练、评估和测试模型的数据集
提供各类文档文字提取,支持自定义场景
发现与 Bart 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
BertViz:可视化NLP模型中的注意力机制(BERT、GPT2、BART等)
LightSeq:一个用于序列处理和生成的,高性能库
基于PyTorch的开源预训练模型框架及预训练模型库
可以直接使用的Rust原生NLP管道和基于Transformer的模型(BERT、DistilBERT、GPT2等)
一个用Go语言编写的自包含机器学习和自然语言处理库
本项目实现了多种文本生成模型,例如LLaMA、ChatGLM、BLOOM、GPT2、Seq2Seq、BART、T5和UDA等,并支持模型的训练和预测,无需额外配置即可直接使用。
在Hugging Face Transformer框架中(包括bloomz-176B、bloom、gpt、bart、T5和MetaICL等模型),实现基于人类反馈的强化学习(RLHF)来训练ChatGPT。
韩语 BART 模型
用于“通过文本生成统一视觉和语言任务”(ICML 2021)的PyTorch代码
用于生成多语言、多领域问题的问答数据集、模型和Python库。
使用BERT构建和训练最先进的自然语言处理模型
AAAI 2022 论文“开放词汇脑电图到文本解码与零样本情感分类”的代码
使用预训练语言模型计算文本的困惑度。支持掩码语言模型(例如,DeBERTa),循环语言模型(例如,GPT3)和编码器-解码器语言模型(例如,Flan-T5)。
与论文《使用预训练Transformer模型进行数据增强》相关的代码
自动分类:该项目利用神经网络的力量,提供了一种自动对银行描述进行分类的解决方案,减少了人工操作,提高了效率,同时保护了隐私。
NAACL 2021 - 长文本的渐进式生成
ACL 2022 论文“IteraTeR:理解人工书写文本中的迭代修订”的官方实现
我们ACL 2021 Findings论文“JointGT:用于知识图谱文本生成的图文联合表示学习”的代码
首个涵盖印尼语、巽他语和爪哇语的大规模自然语言生成基准测试。我们提供了多个下游任务、预训练的IndoGPT和IndoBART模型以及入门代码!(EMNLP 2021)
EMNLP 2021论文《基于主题感知对比学习的抽象对话摘要》的代码