Das Entwicklerteam des Open-Source-Code-Editors Zed hat einen aufsehenerregenden Blogbeitrag veröffentlicht, mit dem Titel „Warum LLMs die Software nicht wirklich bauen können“. Der Artikel wurde von Conrad Irwin verfasst und löste rasch eine heftige Diskussion in der Technik-Szene aus, insbesondere auf Hacker News, wo viele Entwickler ihre Meinung äußerten und sich auf das Wesen der AI-gestützten Programmierung konzentrierten.
Irwin betont im Artikel, dass gute Softwareentwickler einen Zyklus durchlaufen, bei dem sie ein mentales Modell der Anforderungen erstellen, Code schreiben, das tatsächliche Verhalten des Codes verstehen und Unterschiede identifizieren sowie aktualisieren. Er betont, dass die Fähigkeit, ein klares mentales Modell zu bewahren, der Schlüssel zur Unterscheidung zwischen guten und weniger guten Entwicklern ist. Allerdings haben aktuelle LLMs (Large Language Models) an dieser Stelle eine tödliche Schwäche.
Er meint, dass LLMs zwar beim Schreiben und Aktualisieren von Code recht gut abschneiden, aber nicht in der Lage sind, ein klares mentales Modell zu wahren. Wenn Tests fehlschlagen, geraten LLMs oft in Verwirrung und gehen davon aus, dass ihr geschriebener Code korrekt ist, wissen aber nicht, wie sie ihn reparieren sollen. In solchen Situationen wählen sie oft den Weg des vollständigen Neuschreibens des Codes. Viele Entwickler teilen diese Erfahrung und glauben, dass LLMs bei komplexen Projekten oft die Übersicht über das Gesamtsystem verlieren.
Doch der Artikel löste auch unterschiedliche Stimmen aus. Einige Entwickler sind der Ansicht, dass die Fähigkeiten der heutigen LLMs und Code-Tools bereits sehr stark sind und manchmal sogar die von Junior-Entwicklern übertreffen. Andere Nutzer berichteten von ihren Erfahrungen, AI bei Projekten einzusetzen, und sagten, dass das Ergebnis überraschend war – manchmal hat die AI sogar 7000 Zeilen Code vollständig selbst geschrieben.
Irwin analysiert zudem drei Probleme, mit denen LLMs konfrontiert sind: Kontextverlust, aktuelle Vorurteile und Halluzinationen. Diese Probleme behindern die Fähigkeit von LLMs, ein mentales Modell aufrechtzuerhalten. Im Vergleich dazu können Menschen den gesamten Kontext effektiv speichern und verarbeiten, was ihnen eine höhere Flexibilität und Anpassungsfähigkeit beim Lösen von Problemen ermöglicht.
Die Endgültige Meinung des Zed-Teams ist, dass obwohl KI die Softwareentwicklung unterstützen kann, Menschen immer noch die führende Rolle spielen. Wie das Team es ausdrückte: „Zumindest jetzt bist du der Fahrer, und die LLM ist nur ein Werkzeug, das du nutzen kannst.“ Viele Entwickler stimmen diesem zu und glauben, dass KI einige langweilige Codierungsarbeiten übernehmen kann, aber das Design und die Planung müssen weiterhin auf menschliche Intelligenz verlassen.
Diese Diskussion über KI-gestützte Programmierung enthüllt nicht nur die aktuellen technischen Grenzen, sondern veranlasst auch zum Nachdenken: Was ist die Essenz der Softwareentwicklung im Zeitalter der KI-gestützten Programmierung? Wo liegt der Wert der menschlichen Entwickler? Vielleicht liegt die Antwort darin, wie Menschen und KI besser zusammenarbeiten können, um jeweils ihre Stärken einzubringen.