Am 17. Februar integrierte das Opera-Team von Kunlun Wanwei das DeepSeek R1-Modell in Opera Developer und ermöglichte so eine lokale, personalisierte Bereitstellung. Dieser Schritt markiert eine weitere Ausweitung der AI-Anwendungen von Opera und bietet Benutzern leistungsstärkere lokale KI-Funktionen.
Opera war 2024 Vorreiter bei der Integration von lokalen, großen Sprachmodellen (LLMs) in Webbrowser und bietet Nutzern Zugriff auf über 50 verschiedene LLMs. Durch die Integration des DeepSeek R1-Modells nutzt Opera Developer das Ollama-Framework (implementiert mit llama.cpp), um Nutzern den lokalen Betrieb dieses Modells zu ermöglichen und die KI-Fähigkeiten des Browsers weiter zu verbessern.
Benutzer können das DeepSeek R1-Modell mit wenigen Schritten auf ihrem lokalen Gerät ausführen. Zuerst müssen Benutzer die neueste Version von Opera Developer herunterladen und aktualisieren, den Browser öffnen und auf das Aria-Symbol in der linken Seitenleiste klicken. Im Aria-Interface klicken Sie auf das Logo in der oberen linken Ecke, um den Chatverlauf zu erweitern. Gehen Sie dann in das Einstellungsmenü und klicken Sie auf die Option „Lokales KI-Modell“. Geben Sie im Suchfeld „deepseek“ ein, wählen Sie ein Modell aus und laden Sie es herunter. Nach dem Download öffnen Sie einfach ein neues Chat-Fenster mit Aria und wählen das gerade heruntergeladene Modell aus.
Opera bietet Benutzern verschiedene DeepSeek R1-Modelle zur Auswahl, sodass sie ein Modell auswählen können, das zur Leistung ihres Geräts passt.
Die Integration von DeepSeek R1 durch Opera bietet Benutzern nicht nur leistungsstärkere lokale KI-Funktionen, sondern fördert auch die Anwendung und Verbreitung von KI-Technologien im Browserbereich. Dieses Update von Opera Developer bietet Benutzern ein personalisierteres und effizienteres KI-Erlebnis und zeigt gleichzeitig die kontinuierliche Innovations- und Anwendungskompetenz von Kunlun Wanwei im Bereich der KI-Technologie.