clip-bildsuche ist ein Bildsuchwerkzeug, das auf dem vortrainierten CLIP-Modell von OpenAI basiert. Es ermöglicht die Bildrecherche anhand von Text- oder Bildabfragen. Das CLIP-Modell bildet Bilder und Texte durch Training auf denselben latenten Raum ab, wodurch ein Vergleich über Ähnlichkeitsmaße möglich wird. Das Werkzeug verwendet Bilder aus dem Unsplash-Datensatz und nutzt den Amazon Elasticsearch Service für die k-Nearest-Neighbor-Suche. Der Abfrage-Service wird über AWS Lambda-Funktionen und API Gateway bereitgestellt, während das Frontend mit Streamlit entwickelt wurde.