FlashAttention
Mécanisme d'attention précis, rapide et économe en mémoire
Produit OrdinaireProgrammationApprentissage profondTransformer
FlashAttention est une bibliothèque open source de mécanismes d'attention, conçue pour les modèles Transformer en apprentissage profond afin d'améliorer l'efficacité du calcul et l'utilisation de la mémoire. Elle optimise le calcul de l'attention grâce à une approche consciente des E/S, réduisant ainsi l'occupation mémoire tout en préservant la précision des résultats. FlashAttention-2 améliore encore le parallélisme et la répartition du travail, tandis que FlashAttention-3 est optimisé pour les GPU Hopper, prenant en charge les types de données FP16 et BF16.
FlashAttention Dernière situation du trafic
Nombre total de visites mensuelles
492133528
Taux de rebond
36.20%
Nombre moyen de pages par visite
6.1
Durée moyenne de la visite
00:06:33