Bekannter Mathematiker Terence Tao sagte, dass obwohl künstliche Intelligenz in vielen Bereichen erstaunliche Fähigkeiten zeigt, sie im Bereich der Mathematik immer noch an einem entscheidenden „Riecher“ fehlt – dem menschlichen Instinkt, falsche Ansätze und falsche Beweise zu erkennen. Er meinte, dass diese Intuition derzeit von künstlicher Intelligenz nicht repliziert werden kann, weshalb Menschen weiterhin eine unverzichtbare Rolle bei mathematischen Urteilen spielen.

Tao erklärte, dass generative KI-Mathematische-Beweise, selbst wenn sie Mängel aufweisen, oft „fehlerlos“ erscheinen können. Diese Fehler sind jedoch oft „sehr subtil“ und erscheinen beim Entdecken „sehr dumm“, was menschliche Fehler im echten Kontext nicht wären. Er nennt diese menschliche Fähigkeit metaphorisch den „mathematischen Geruch“, der sofort Alarm schlägt, wenn etwas nicht stimmt. Tao betonte: „Es ist derzeit nicht klar, wie KI dies letztlich nachahmen könnte.“

Roboter-Wettbewerb mit Antworten auf Mathematik-Fragen

Er erklärte weiter, dass derzeitige KI-Systeme, insbesondere Generatoren, oft in Schwierigkeiten geraten, wenn sie einen falschen Ansatz wählen. Er sah das Hauptproblem darin, dass KI schwer feststellt, wann sie den falschen Weg geht. Dies unterscheidet sich von hybriden KI-Systemen, die Neuronale Netze mit symbolischer Logik kombinieren.

Auch wenn Tao zugeben musste, dass Systeme wie AlphaZero in Spielen wie Go und Schach erhebliche Fortschritte gemacht haben, sah er dies als Entwicklung eines „Riechers“ für gewinnbringende Spielpositionen. Obwohl sie keine konkreten Gründe nennen können, reicht dieser „Geruch“ aus, um Strategien zu entwickeln. Tao stellte sich vor, dass es eine Revolution in der Mathematik geben könnte, wenn KI in der Lage wäre, diese Fähigkeit zur Wahrnehhung von beweisbaren Strategien zu erlangen. Sie könnte dann konstruktive Vorschläge machen, wie: „Hmm, das scheint gut; diese beiden Aufgaben scheinen einfacher zu sein und könnten immer noch korrekt sein.“

Wie bekannt ist, verwendet AlphaZero in Spielszenarien und Trainingsprozessen Monte-Carlo-Baumsuche (MCTS) als „symbolischen Rahmen“, um Züge auszuwählen und mögliche Pfade zu simulieren. Es bleibt jedoch letztendlich ein tiefes Lernalgorithmus basierend auf neuronalen Netzen, das durch Selbstspiel und das Lernen aus Millionen von Parametern funktioniert.

Einige Forscher glauben, dass die Kombination von großen Sprachmodellen mit den Vorteilen symbolischer Logik den Durchbruch in der Mathematik bringen könnte, da reine LLMs (selbst mit einiger Deduktion) möglicherweise in komplexen mathematischen Problemen in Sackgassen geraten. Tao hatte OpenAI’s Deduktionsmodell o1 als „durchschnittlich, aber nicht völlig nutzlos“ beschrieben, vergleichbar mit einem Assistenten, der alltägliche Aufgaben erledigen kann, aber immer noch Kreativität und Flexibilität vermisst. Er war auch an der Entwicklung des FrontierMath-Benchmarks beteiligt, der anspruchsvolle mathematische Probleme für KI-Systeme definiert, um die Entwicklung dieses Gebiets voranzutreiben.