Falcon Mamba est le premier modèle de langage à grande échelle de 7 milliards de paramètres, sans mécanisme d'attention, publié par l'Institut d'innovation technologique d'Abou Dhabi (TII). Ce modèle n'est pas limité par l'augmentation des coûts de calcul et de stockage due à l'augmentation de la longueur des séquences lors du traitement de longues séquences, tout en conservant des performances comparables aux modèles de pointe actuels.