DA-CLIP ist ein degradierungsbewusstes visuell-sprachliches Modell, das als universelles Framework für die Bildwiederherstellung dient. Es trainiert einen zusätzlichen Controller, der es einem festen CLIP-Bildkodierer ermöglicht, qualitativ hochwertige Merkmals-Einbettungen vorherzusagen und diese in ein Bildwiederherstellungsnetzwerk zu integrieren, um eine hochgenaue Bildrekonstruktion zu erlernen. Der Controller gibt außerdem Degradierungsmerkmale aus, die mit der Eingabe der tatsächlichen Beschädigung übereinstimmen und so einen natürlichen Klassifikator für verschiedene Degradierungstypen bilden. DA-CLIP wird außerdem mit einem gemischten Datensatz degradierter Bilder trainiert, wodurch die Leistung bei spezifischen Degradierungs- und einheitlichen Bildwiederherstellungsaufgaben verbessert wird.