Le Décodage Anticipatif est une nouvelle méthode d'inférence visant à briser la dépendance séquentielle de l'inférence des grands modèles de langage (LLM), améliorant ainsi l'efficacité du processus. Les utilisateurs peuvent améliorer leur code en important la librairie Décodage Anticipatif. Pour le moment, le Décodage Anticipatif ne prend en charge que les modèles LLaMA et la recherche gloutonne (Greedy Search).