发现与 Bert Multilingua 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
Pytorch、TensorFlow和JAX框架下最先进的机器学习转换器
一个AI编排框架,用于构建可定制、可用于生产环境的大型语言模型(LLM)应用。它能够将组件(模型、向量数据库、文件转换器)连接到管道或代理,从而与您的数据进行交互。借助先进的检索方法,它最适合构建基于检索的增强生成(RAG)系统、问答系统、语义搜索或对话式智能体聊天机器人。
深度学习研究人员的自然语言处理教程
一个简单易用、功能强大的自然语言处理 (NLP) 和大型语言模型 (LLM) 库,拥有强大的模型库,支持从研究到工业应用的各种 NLP 任务,包括文本分类、神经搜索、问答、信息抽取、文档智能、情感分析等。
基于CLIP的图像和句子可扩展嵌入、推理和排序
这个仓库包含我使用HuggingFace的Transformers库制作的演示程序。
基于全词掩码的中文BERT预训练模型
海量中文自然语言处理语料库
基于多语言BERT的VITS2主干网络
使用BERT分词器的GPT2中文训练代码
BertViz:可视化NLP模型中的注意力机制(BERT、GPT2、BART等)
利用BERT和c-TF-IDF技术提取易于理解的主题。
谷歌人工智能2018年BERT模型的PyTorch实现
TensorFlow 2.x 版本的教程和示例,涵盖卷积神经网络 (CNN)、循环神经网络 (RNN)、生成对抗网络 (GAN)、自动编码器、Faster R-CNN、GPT 和 BERT 等模型的示例代码及实战教程。
与Transformer相关的优化,包括BERT和GPT模型的优化。
超棒的中文预训练 NLP 模型:高质量中文预训练模型、大模型、多模态模型和大型语言模型合集
基于私有服务器,使用BiLSTM-CRF模型并微调Google BERT的TensorFlow命名实体识别(NER)任务解决方案
text2vec,将文本转换为向量的工具。它能将文本转化为向量矩阵,支持Word2Vec、RankBM25、Sentence-BERT、CoSENT等多种文本表示和相似度计算模型,方便快捷,无需额外配置。
PyTorch和TorchText情感分析入门教程
关于基于提示微调预训练语言模型的必读论文