Cohere hat kürzlich zwei neue Modelle – Command A und Embed 4 – auf der Microsoft Azure AI Foundry-Plattform vorgestellt, die eine deutliche Verbesserung für unternehmensweite RAG (Retrieval Augmented Generation) und Agenten-KI-Workflows bieten. Diese beiden Modelle sind produktionsbereit und entwicklerfreundlich und eignen sich hervorragend für intelligente Dokumentenbeantwortung, unternehmensweite Copiloten und skalierbare Such-Anwendungen.

QQ20250421-111204.png

Command A: Der effiziente Motor für Agenten-KI

Command A ist ein großes Sprachmodell (LLM), das von Cohere speziell für Agenten-KI-Workflows entwickelt wurde und sich nahtlos in komplexe Unternehmensanwendungen integrieren lässt. Unterstützt von Azure AI Foundry bietet das Modell hervorragende semantische Schlussfolgerungs- und Ausführungsfähigkeiten, insbesondere für Szenarien, die mehrstufige logische Verarbeitung und Echtzeitentscheidungen erfordern. Unternehmen können Command A beispielsweise zum Erstellen intelligenter Dokumentenbeantwortungssysteme oder zur Entwicklung von Copilot-Assistenten verwenden, die mit Geschäftssystemen interagieren können, um so die Betriebseffizienz zu steigern.

Dank der gemanagten Services der Azure-Plattform lässt sich Command A schnell bereitstellen und skalieren, wobei sich Entwickler nicht um die Verwaltung der zugrundeliegenden Infrastruktur kümmern müssen. Darüber hinaus ist Command A tief in die Toolchain von Azure AI Foundry integriert, sodass Entwickler mit minimalem Code produktionsreife KI-Workflows erstellen können. Diese „Out-of-the-box“-Funktionalität macht es zur idealen Wahl für Unternehmen, die schnell KI-Innovationen umsetzen möchten.

Embed 4: Multimodales Einbettungsmodell für RAG

Embed4 ist ein Hochleistungs-Einbettungsmodell von Cohere, das für RAG- und semantische Such-Szenarien optimiert wurde und folgende Kernmerkmale aufweist:

Mehrsprachige Unterstützung: Unterstützt Text-Einbettungen in über 100 Sprachen und ermöglicht es globalen Unternehmen, mehrsprachige Such- und Frage-Antwort-Systeme zu erstellen.

Multimodale Fähigkeiten: Embed4 enthält einen integrierten Bild-Encoder, der Bild-Einbettungen generieren kann. Entwickler können über den ImageEmbeddingsClient von Azure AI Foundry semantische Verbindungen zwischen Bildern und Texten herstellen. Unternehmen können beispielsweise anhand von Bildinhalten nach relevanten Textdokumenten suchen, wodurch die Anwendungsfälle von RAG erheblich erweitert werden.

Matryoshka-Einbettungen: Durch die skalierbare Matryoshka-Representationslerntechnik ermöglicht Embed4 das Zuschneiden von Einbettungsvektoren auf kleinere Größen bei gleichzeitiger Beibehaltung hoher Genauigkeit, wodurch der Speicherbedarf und die Rechenkosten reduziert werden.

Effiziente Quantisierung: Unterstützt int8-Quantisierung und binäre Einbettungsausgaben, um die Suchgeschwindigkeit weiter zu erhöhen und den Speicherbedarf zu reduzieren. Dies ist ideal für groß angelegte Unternehmensbereitstellungen.

Diese Eigenschaften machen Embed4 zum bevorzugten Werkzeug für die Erstellung schneller, skalierbarer und mehrsprachiger RAG-Pipelines, die sich für Unternehmens-Workloads in Branchen wie Finanzwesen, Gesundheitswesen, Regierung und Fertigung eignen.

Azure AI Foundry: Eine zentrale Plattform für KI-Lösungen

Die Veröffentlichung der neuen Cohere-Modelle stützt sich auf die starke Ökosystemunterstützung von Azure AI Foundry. Azure AI Foundry, die umfassende KI-Entwicklungsplattform von Microsoft, bietet nicht nur einen Modellkatalog mit über 1800 Modellen von Anbietern wie Cohere, OpenAI und Meta, sondern vereinfacht auch den gesamten Prozess von der Entwicklung bis zur Produktion durch sichere, konforme und skalierbare Cloud-Services. Entwickler können Command A und Embed 4 mithilfe der Azure AI Foundry SDKs und des Modellkatalogs schnell bereitstellen und die von der Plattform bereitgestellten Toolchains für eine nahtlose Integration nutzen.

Darüber hinaus gewährleistet Azure AI Foundry durch integrierte KI-Inhalts-Sicherheitsfilter und automatisierte Bewertungswerkzeuge die Qualität und Sicherheit der Modell-Ausgabe. Unternehmen können die fortschrittlichen KI-Funktionen von Cohere in kürzester Zeit in ihre Geschäftsabläufe integrieren und die Anforderungen an Service Level Agreements (SLAs) und Compliance erfüllen.