发现与 Ft Transformer 相关的最受欢迎的开源项目和工具,了解最新的开发趋势和创新。
Pytorch、TensorFlow和JAX框架下最先进的机器学习转换器
60多个深度学习论文的实现/教程,并附带旁注;涵盖Transformer(原始版、XL、Switch、Feedback、ViT等)、优化器(Adam、AdaBelief、Sophia等)、GAN(CycleGAN、StyleGAN2等)、强化学习(PPO、DQN)、Capsule网络、知识蒸馏等。
一步一步用PyTorch从零开始实现一个类似ChatGPT的大型语言模型。
一种高效且内存利用率高的用于大型语言模型推理和服务的引擎
OpenAI Whisper 模型的 C/C++ 端口
这是目前最大规模的PyTorch图像编码器/骨干网络集合,包含训练、评估、推理、导出脚本和预训练权重——涵盖ResNet、ResNeXT、EfficientNet、NFNet、Vision Transformer (ViT)、MobileNetV4、MobileNet-V3 & V2、RegNet、DPN、CSPNet、Swin Transformer、MaxViT、CoAtNet、ConvNeXt等多种网络。
开放式MMLab目标检测工具箱和基准测试
使用Pytorch实现视觉Transformer,这是一种仅用单个Transformer编码器就能轻松达到图像分类领域最先进水平(SOTA)的简易方法。
最先进的开源语音合成技术
每周更新的超棒Python机器学习库排名列表
2025年计算机视觉与模式识别会议(CVPR 2025)论文及开源项目集锦
SGLang是一个用于大型语言模型和视觉语言模型的快速服务框架。
这是“基于移位窗口的分层视觉Transformer:Swin Transformer”的官方实现。
pix2tex:利用视觉Transformer(ViT)将方程式图片转换成LaTeX代码。
深度学习研究人员的自然语言处理教程
最先进的网页机器学习。无需服务器,即可直接在浏览器中运行Transformer模型!
RWKV(发音为RwaKuv)是一个具有出色大语言模型性能的循环神经网络(RNN),它也可以像GPT Transformer一样直接训练(可并行化)。我们现在处于RWKV-7 "鹅"阶段。因此,它结合了RNN和Transformer的优点——性能卓越、线性时间复杂度、常数空间复杂度(无键值缓存)、快速训练、无限上下文长度以及免费的句子嵌入。
正在进行大规模的Transformer模型研究训练
MNN是一个超高速、轻量级的深度学习框架,已在阿里巴巴的业务关键用例中经受了实战检验。完整的多模态大语言模型Android应用:[MNN-LLM-Android](./apps/Android/MnnLlmChat/README.md)
简单易用的语音工具包,包含自监督学习模型、具有标点符号的先进/流式语音识别、带文本前端的流式语音合成、说话人识别系统、端到端语音翻译和关键词识别功能。荣获NAACL2022最佳演示奖。