Die Illusion der Vernunft: Die Debatte, die die KI-Welt erschüttert
Apple veröffentlicht zwei verheerende Arbeiten - "GSM-Symbolic" (Oktober 2024) und "The Illusion of Thinking" (Juni 2025) -, die zeigen, wie LLM bei kleinen Variationen klassischer Probleme (Tower of Hanoi, Flussüberquerung) versagt: "Die Leistung nimmt ab, wenn nur numerische Werte geändert werden". Null Erfolg beim komplexen Turm von Hanoi. Doch Alex Lawsen (Open Philanthropy) kontert mit "The Illusion of Thinking" und zeigt, dass die Methodik versagt hat: Die Fehler lagen in den Grenzen der Token-Ausgabe und nicht im Zusammenbruch des Denkens, automatische Skripte klassifizierten teilweise korrekte Ausgaben falsch, einige Rätsel waren mathematisch unlösbar. Durch Wiederholung von Tests mit rekursiven Funktionen anstelle der Auflistung von Zügen lösten Claude/Gemini/GPT Tower of Hanoi mit 15 Rekorden. Gary Marcus macht sich die Apple-These von der "Verteilungsverschiebung" zu eigen, aber das Papier aus der Zeit vor der WWDC wirft strategische Fragen auf. Auswirkungen auf Unternehmen: Wie viel Vertrauen in KI für kritische Aufgaben? Lösung: Neurosymbolische Ansätze Neuronale Netze für Mustererkennung und Sprache, symbolische Systeme für formale Logik. Beispiel: KI-Buchhaltung versteht "Wie viel Reisekosten?", aber SQL/Berechnungen/Steuerprüfungen = deterministischer Code.