Bei der WWDC-Konferenz 2025 hat Apple seiner Entwicklergemeinschaft Zugang zu seiner KI-Technologie gewährt und das Foundation Models Framework sowie die verbesserte Xcode26 vorgestellt, was einen bedeutenden Durchbruch für Apple im Bereich von AI-Entwicklungstools markiert.

Foundation Models Framework: Ein AI-Integrationsframework mit Datenschutz als Priorität

Das neue Foundation Models Framework von Apple bietet Entwicklern eine zentrale Werkzeugbox, um selbst entwickelte KI-Modelle direkt in ihre Anwendungen einzubinden. Das größte Highlight des Frameworks liegt darin, dass es vollständig lokal auf dem Gerät läuft und keine Cloud-Verbindung erfordert, wodurch sowohl den Nutzern ihr Privatsphäre geschützt bleibt als auch Entwicklern kostenloses Zugang ermöglicht wird.

Das Framework ist direkt in die Swift-Programmiersprache integriert, sodass Entwickler nur drei Codezeilen benötigen, um auf die Apple Intelligence-Funktionen zuzugreifen. Kernfunktionen wie „generativer Assistent“ und „Werkzeugaufruf“ sind bereits vorkonfiguriert, was die technische Hürde für die Integration von generativen KI in bestehende Anwendungen signifikant senkt.

Die Tagebuchanwendung „Day One“ von Automattic hat bereits dieses Framework verwendet, um „intelligente Funktionen mit Datenschutz im Mittelpunkt“ anzubieten.

App Intents aktualisiert: Visuelle Suche im gesamten System verfügbar

Apple hat App Intents gleichzeitig aktualisiert, um Entwicklern die Möglichkeit zu geben, die Funktionalitäten ihrer Apps für systemweit nutzbare Szenarien zu erweitern. Die neueste Version bietet Unterstützung für visuelle Intelligenz, sodass Apps Ergebnisse der visuellen Suche direkt in Siri, Spotlight-Suche und Widgets usw. anzeigen können. Nutzer können direkt von den Suchergebnissen zu den entsprechenden Apps springen.

Der E-Commerce-Dienst Etsy hat diese Funktion in seiner iOS-Anwendung zur Produkt suche optimiert. Wie der CTO von Etsy, Rafe Colburn, erläuterte, ist es oft schwierig, viele kreative Produkte mit Text korrekt zu beschreiben, und die visuelle Suche hilft dabei, bei kleinen Händlern einzigartige Artikel besser zu finden.

Xcode26: KI-Assistent im Entwicklungsumfeld eingebaut

Die Veröffentlichung von Xcode26 bringt Entwicklern einen direkt integrierten KI-Programmierassistenten. Entwickler können nun ChatGPT direkt im IDE verwenden, selbst ohne persönliches OpenAI-Konto. Außerdem wird Unterstützung für die Integration anderer KI-Modelle über API-Schlüssel oder die Ausführung lokaler Modelle auf Macs mit Apple Silicon-Chips bereitgestellt.

Die neuen AI-Werkzeuge in Xcode26 decken den gesamten Entwicklungsprozess ab, einschließlich automatischer Codegenerierung, Testschreibweise, Dokumentationserstellung, Fehleranalyse und Iteration der Designideen. Der Codeeditor bietet intelligente Vorschläge basierend auf dem Kontext, wie zum Beispiel Playgrounds zu erstellen, Fehler zu beheben oder Vorschaubilder zu generieren.

Neben AI-Funktionen wurden in Xcode26 auch die Benutzeroberfläche optimiert, um die Navigationserfahrung, das Lokalisieren von Verzeichnissen und die barrierefreie Gestaltung zu verbessern. Entwickler können nun Swift-Code mithilfe der Sprachsteuerung schreiben oder die gesamte Xcode-Oberfläche per Sprachbefehl navigieren, was die Produktivität weiter erhöht.

macOS Tahoe: Spotlight wandelt sich zum intelligenten Kommandozentrum

Bei der WWDC2025 hat Apple außerdem die große Aktualisierung von Spotlight in macOS Tahoe vorgestellt. Vor dem Hintergrund der weit verbreiteten AI-Hilfsprogramme wie ChatGPT und Google Gemini hat Apple Spotlight neu positioniert und es zu einem intelligenten Kommandozentrum auf dem Mac gemacht, das Tausende von Operationen ausführen kann.

Das neue Spotlight kann nicht nur Dateien und Anwendungen durchsuchen, sondern auch E-Mails verfassen, Erinnerungen setzen und Podcasts abspielen. Im Live-Test zeigte Apple Management, wie Nutzer komplexe E-Mails erstellen und senden können, einschließlich Empfänger, Betreff und Inhalt, ohne das Programm zu wechseln.

Die visuelle Gestaltung von Spotlight wurde gründlich überarbeitet, sodass Nutzer einfacher auf Applikationen, Dateien und die Zwischenablageverlauf zugreifen können. Alle Suchergebnisse werden intelligent sortiert und nach Relevanz für den Nutzer angezeigt. Apple hat außerdem Kurzbefehlsfunktionen hinzugefügt, sodass Nutzer mit wenigen Zeichen bestimmte Apps öffnen oder Operationen ausführen können, wie zum Beispiel „SM“ für Nachrichten senden oder „AR“ für Erinnerungen hinzufügen.

Dank der tiefgreifenden Integration von Apple Intelligence verfügt Spotlight nun über kontextuelles Bewusstsein und kann personalisierte Vorschläge basierend auf der aktuellen Aktivität und den Nutzergewohnheiten anbieten. Entwickler können ihre Apps über die App Intents-API besser im Spotlight durchsuchbar machen.

Mit dieser doppelten Strategie – einerseits leistungsstarke AI-Entwicklungswerkzeuge für Entwickler bereitzustellen und andererseits die Kernsuchfunktion des Macs in ein intelligentes Betriebszentrum umzuwandeln – zeigt Apple seine strategische Vision im Zeitalter der KI und legt damit eine solide Grundlage für die intelligente Transformation des gesamten Apple-Ekosystems.