Apple plantet, durch die Einführung von KI-Markierungstechnologie die Entdeckbarkeit von Apps im App Store erheblich zu verbessern. Diese innovative Funktion wurde mit der Developer-Testversion von iOS26 veröffentlicht und soll dabei helfen, Apps präziser zu kategorisieren und darzustellen.
Obwohl diese von der KI generierten Tags derzeit noch nicht im öffentlich zugänglichen App Store angezeigt werden und die aktuellen Suchalgorithmen nicht beeinflussen, signalisiert ihr Erscheinen eine große Umstellung des Suchrankingsystems im App Store.
Nach einer neuesten Analyse von Appfigures, einem Anbieter von App-Intelligenz-Diensten, beginnen sich auch die Metadaten der Bildschirmfotos auf die Suchrankungen auszuwirken, und es wird vermutet, dass Apple Texte aus den Bildschirmfotos extrahiert hat. Dabei betont das Unternehmen, dass bisher nur der Name der App, der Untertitel und die Schlüsselwortliste in die Berücksichtigung der Suchrankungen einbezogen wurden.
Dagegen hat Apple bei seiner weltweiten Entwicklerkonferenz (WWDC25) klar gemacht, dass Bildschirmfotos zwar die Entdeckbarkeit von Apps beeinflussen, ihre Datenextraktion jedoch nicht auf OCR-Technologie basiert, sondern auf fortschrittlicher KI-Technologie. Apple erklärt, dass die KI Informationen extrahiert, die möglicherweise übersehen wurden, wie zum Beispiel aus der App-Beschreibung, der Kategorieinformation, den Bildschirmfotos und anderen Metadaten, um präzisere Tags zuzuweisen. Das bedeutet, dass Entwickler keine Schlüsselwörter in die Bildschirmfotos einfügen müssen.
Apple verspricht, dass diese Technologie dabei helfen wird, Apps besser zu kategorisieren, und dass Entwicklern schließlich Kontrolle über die ihnen zugewiesenen Tags erteilt werden wird. Außerdem versichert Apple den Entwicklern, dass vor dem offiziellen Start dieser Tags und ihrer weltweiten Verbreitung im App Store eine manuelle Prüfung erfolgt.
In Zukunft müssen Entwickler diese KI-Tags verstehen und strategisch nutzen, um die Sichtbarkeit und Entdeckbarkeit ihrer Apps zu maximieren.