Falcon Mambaは、アブダビ技術革新研究所(TII)によって発表された、アテンション機構を必要としない初の7B規模の大規模言語モデルです。このモデルは、大規模なシーケンスを処理する場合でも、シーケンス長の増加による計算コストとストレージコストの増加の影響を受けずに、既存の最先端モデルと同等の性能を維持します。