Willkommen bei der Rubrik „AI Daily“! Hier ist Ihr Leitfaden für die tägliche Exploration der künstlichen Intelligenz. Jeden Tag präsentieren wir Ihnen die aktuellen Themen aus dem Bereich KI, mit Fokus auf Entwickler und helfen Ihnen dabei, technologische Trends zu verstehen und innovative Anwendungen von KI-Produkten kennenzulernen.

Frische KI-Produkte klicken Sie hier:https://app.aibase.com/zh

1. TikTok veröffentlicht eine Erklärung zur Bekämpfung der Missbrauch von KI-Technologie und ergreift Maßnahmen wie Entfernung und Ausschluss für unerlaubte Händler und Stars

Der Sicherheits- und Vertrauenszentrum von TikTok-Handel veröffentlichte eine Erklärung, in der festgelegt wird, dass gegen Händler und Stars, die KI-Technologie missbrauchen, strenge Maßnahmen ergriffen werden, einschließlich der Entfernung und des Ausschlusses unerlaubter Videos und Konten. Die Erklärung weist darauf hin, dass einige Händler KI nutzen, um falsche Produktpräsentationen zu generieren, Funktionen der Produkte zu übertreiben und Persönlichkeiten zu imitieren, um irreführende Werbung zu betreiben, was die Rechte der Verbraucher und die Ordnung der Plattform schwer beschädigt. Die Plattform verlangt, dass Kreatoren bei der Veröffentlichung von KI-generierten Inhalten eine eigene Erklärung abgeben, andernfalls werden nicht erklärte Werke behandelt.

image.png

【AiBase Zusammenfassung:】

🤖 KI zum Generieren von falschen Produktpräsentationen und übertriebenen Werbeinhalten verwenden

🎭 KI nutzen, um Persönlichkeiten zu synthetisieren, um irreführende Werbung zu betreiben

📢 KI-generierte Inhalte müssen aktiv erklärt werden, andernfalls werden sie behandelt

2. ElevenLabs aktualisiert seinen Klangmodell auf Version 2: Unterstützung für längere Abschnitte, nahtlose Wiederholung und hochwertige Audio

Das Klangmodell von ElevenLabs wurde auf Version 2 aktualisiert und bringt mehrere Verbesserungen mit sich, darunter die Unterstützung für längere Audio-Abschnitte, nahtlose Wiederholungsfunktionen sowie höhere Abtastraten, was die Qualität und Flexibilität der Klanggenerierung deutlich verbessert.

image.png

【AiBase Zusammenfassung:】

🎧 Neues Modell unterstützt die Generierung von maximal 30 Sekunden langen Audio-Abschnitten

🔄 Neue Funktion für nahtlose Wiederholung, ideal für Hintergrundgeräusche

🔊 Unterstützt 48kHz Abtastrate, um die Klangtreue zu verbessern

3. OpenAI kauft den Datenanalyse-Plattform-Entwickler Statsig

OpenAI kaufte die Datenanalyse-Plattform für Produktentwicklung namens Statsig, wodurch ihre Fähigkeiten in der Produktiteration und Datenanalyse weiter gestärkt werden. Der Gründer von Statsig, Vijaye Raji, wird als CTO bei OpenAI arbeiten und weiterhin unabhängig operieren. Die Plattform verarbeitet täglich 1 Billion Ereignisse und bietet effiziente Experimente und Datenanalysen für die Produktentwicklung.

image.png

【AiBase Zusammenfassung:】

📊 Die Statsig-Plattform verarbeitet täglich 1 Billion Ereignisse und bietet effiziente Produkttests und Datenanalysen.

🚀 Vijaye Raji wird OpenAI bei der Entwicklung von nächsten Generationen von Produkten unterstützen.

🌟 OpenAI kauft Statsig, der Gründer wird als CTO arbeiten und weiterhin unabhängig operieren.

4. Amazon führt Lens Live AI-Funktion ein: Echtzeit-Scan für neue Einkaufserfahrung

Amazon hat eine neue KI-Funktion namens Lens Live eingeführt, mit der Benutzer Gegenstände mit der Smartphone-Kamera in Echtzeit scannen und direkt auf Amazon kaufen können. Diese Funktion integriert den KI-Assistenten Rufus, der Informationen zu Produkten zusammenfasst und Fragen beantwortet, um die Kaufeffizienz und -erfahrung der Nutzer zu verbessern.

image.png

【AiBase Zusammenfassung:】

🛒 Neue Funktion: Amazon führt Lens Live ein, sodass Benutzer mit der Kamera Gegenstände in Echtzeit scannen und kaufen können.

📱 Bequeme Bedienung: Nutzer können auf bestimmte Artikel scannen, um passende Artikel in Echtzeit zu finden und in den Warenkorb hinzuzufügen.

🤖 KI-Assistent: Lens Live integriert den KI-Assistenten Rufus, der Produktinformationen zusammenfasst und relevante Fragen beantwortet.

5. Google AI stellt Stax vor: Hilft Entwicklern, große Sprachmodelle nach benutzerdefinierten Kriterien zu bewerten

Google AI stellte das Werkzeug Stax vor, das Entwicklern hilft, große Sprachmodelle nach benutzerdefinierten Kriterien zu bewerten, indem es strukturierte Bewertungsmethoden bereitstellt und die Effizienz und Genauigkeit der Modelltests verbessert.

image.png

【AiBase Zusammenfassung:】

🧪 Stax bietet eine schnelle Vergleichsfunktion, sodass Entwickler verschiedene Modelle parallel testen können.

📊 Unterstützt benutzerdefinierte und vorgefertigte Bewertungstools, um Entwicklern Ergebnisse zu liefern, die mit ihren tatsächlichen Anforderungen übereinstimmen.

📦 Projekt- und Datensatzfunktionen unterstützen umfangreiche Tests und gewährleisten die Konsistenz der Bewertungskriterien.

Weitere Details: https://stax.withgoogle.com/landing/index.html

6. WordPress bringt AI-Tool Telex heraus, um den Website-Bau zu vereinfachen

Der Gründer von WordPress, Matt Mullenweg, stellte auf WordCamp US2025 das AI-Tool Telex vor, das den Website-Bau durch eine AI-Schnittstelle vereinfachen soll, sodass Benutzer ohne Codierung Website-Inhalte erstellen können. Obwohl es sich noch in der experimentellen Phase befindet, hat seine Potenzial große Aufmerksamkeit erregt. Darüber hinaus erwähnte Mullenweg auch einen Rechtsstreit mit dem Hosting-Anbieter WP Engine und zeigte optimistische Sicht auf die Zukunft der KI-Technologie.

image.png

【AiBase Zusammenfassung:】

🤖 Telex ist ein WordPress-Entwicklungs-Tool basierend auf KI, das den Website-Bau vereinfacht.

🌐 Benutzer können mit einfachen Prompt-Inhalten Inhaltsschnipsel generieren und diese als .zip-Datei herunterladen.

⚖️ Mullenweg erwähnte den Rechtsstreit mit WP Engine und betonte die Wichtigkeit des fairen Nutzung von WordPress-Ergebnissen.

7. Liquid AI stellt LFM2-VL-Modell vor, das „klein und empfindlich“ KI-Visions- und Sprachfähigkeiten für Smartphones bringt

Das neu veröffentlichte LFM2-VL-Modell von Liquid AI hat bedeutende Fortschritte im Bereich visueller Sprachverarbeitung erzielt. Die Serie umfasst zwei Modelle: LFM2-VL-450M und LFM2-VL-1.6B, die jeweils für gerätebegrenzte Umgebungen und einzelne GPU-Bereitstellung geeignet sind. Das Modell zeigt effiziente Multi-Modal-Aufgabenleistung und unterstützt hochauflösende Bildeingaben, gleichzeitig wurden die Inferenzgeschwindigkeit und Flexibilität optimiert.

image.png

【AiBase Zusammenfassung:】

🧠 **Leichtbau-Design**: LFM2-VL-450M ist speziell für Geräte mit begrenzten Ressourcen konzipiert, während LFM2-VL-1.6B trotz einer höheren Anzahl an Parametern immer noch leicht bleibt und für Geräte-Deployment geeignet ist.

⚡ **Effiziente Inferenz**: Die GPU-Inferenzgeschwindigkeit wurde um bis zu zweimal erhöht und zeigt ausgezeichnete Leistung in verschiedenen Multi-Modal-Aufgaben.

🖼️ **Flexibler Kompatibilität**: Unterstützt hochauflösende Bildeingaben, verarbeitet große Bilder mit nicht überlappenden Schnitten und ist kompatibel mit den meisten Entwicklertools.

Weitere Details: https://huggingface.co/LiquidAI/LFM2-VL-1.6B

8. Apple gibt FastVLM und MobileCLIP2 frei: Geschwindigkeit um 85-mal gestiegen, iPhone wird zu einem KI-Gerät!

Apple hat kürzlich zwei visuelle Sprachmodelle – FastVLM und MobileCLIP2 – auf der Hugging Face-Plattform öffentlich gemacht. Mit ihrer außergewöhnlichen Leistungsoptimierung und effizienten lokalen Ausführung bieten diese Modelle neue Möglichkeiten für KI-Anwendungen auf Edge-Geräten. FastVLM erreichte einen Qualitätsprung in Geschwindigkeit und Effizienz, während MobileCLIP2 sich auf eine effiziente Merkmalsausrichtung zwischen Bild und Text konzentriert und für Ressourcen-begrenzte Edge-Geräte geeignet ist.

image.png

【AiBase Zusammenfassung:】

🍎 FastVLM ist für die Bearbeitung von hochauflösenden Bildern optimiert, die erste Antwortzeit wurde um 85-fach erhöht und ist für mobile Geräte geeignet.

📱 MobileCLIP2 ist ein leistungsstarkes CLIP-Modell, das Echtzeit-Multimodal-Interaktionen unterstützt und für Bildsuche und Inhaltsgenerierung geeignet ist.

🚀 Durch die Öffentlichkeit dieser Modelle fördert Apple die Verbreitung visueller Sprachmodelle und ermöglicht Entwicklern, intelligentere KI-Anwendungen zu bauen.

Weitere Details: https://huggingface.co/collections/apple/fastvlm-68ac97b9cd5cacefdd04872e

9. MetaGPT stellt RealDevWorld vor, ein End-to-End-Automatisierungstestwerkzeug mit einer Genauigkeit von 92%

Der Artikel beschreibt das automatisierte Testwerkzeug RealDevWorld, das von MetaGPT eingeführt wurde. Dieses Werkzeug realisiert eine vollständige Automatisierungstest durch ein Framework mit mehreren intelligenten Agenten, mit Kernfunktionen wie natürlicher Sprachsteuerung, selbstheilenden Testskripten und umfassender Testabdeckung, was die Testeffizienz und Zuverlässigkeit erheblich steigert.

image.png

【AiBase Zusammenfassung:】

🧪 Natürliche Sprachgesteuerte Tests: Benutzer können Anforderungen in natürlicher Sprache beschreiben, um Testfälle zu generieren und die technischen Hürden zu senken.

🔄 Selbstheilende Testskripte: Nutzen Sie KI, um Testskripte automatisch zu reparieren, die aufgrund von UI-Updates nicht mehr funktionieren, um Wartungskosten zu reduzieren.

🌐 Vollständige Testabdeckung: Unterstützt Web-, Mobile- und API-Tests auf mehreren Plattformen und deckt den gesamten Workflow ab.

Weitere Details: https://github.com/tanghaom/AppEvalPilot

10. Schweiz veröffentlicht autonomes Open-Source-KI-Modell Apertus

Die Schweiz hat ihr erstes vollständig open-source großes Sprachmodell Apertus veröffentlicht, das gemeinsam von EPFL, ETH Zurich und CSCS entwickelt wurde. Es verfügt über Fähigkeiten zur Mehrsprachverarbeitung und folgt offenen und transparenten Entwicklungsprinzipien, um Benutzern Lösungen zur Alternativnutzung von OpenAI anzubieten und die nachhaltige Entwicklung künstlicher Intelligenz zu fördern.

image.png

【AiBase Zusammenfassung:】

🧠 Apertus ist das erste vollständig open-source große Sprachmodell der Schweiz, das Fähigkeiten zur Mehrsprachverarbeitung besitzt und mehr als 1000 Sprachen abdeckt.

🌐 Der Entwicklungsprozess spiegelt Prinzipien der Transparenz und Offenheit wider, wobei Architektur, Trainingsdaten und Prozesse öffentlich zugänglich sind.

⚡ Apertus bietet zwei Versionen, die jeweils für Einzelbenutzer und komplexe Szenarien geeignet sind, und wird auf Supercomputern mit erneuerbaren Energien trainiert.