Warum Mathe schwierig ist (auch für KI)
Sprachmodelle wissen nicht, wie man Ergebnisse multipliziert, so wie wir uns Pi merken, aber das macht sie nicht zu Mathematikern. Das Problem ist strukturell: Sie lernen durch statistische Ähnlichkeit, nicht durch algorithmisches Verständnis. Selbst die neuen "Denkmodelle" wie o1 versagen bei trivialen Aufgaben: Es zählt das "r" in "Erdbeere" nach wenigen Sekunden korrekt, irrt aber, wenn es einen Absatz schreiben soll, bei dem der zweite Buchstabe jedes Satzes ein Wort bildet. Die Premium-Version für 200 Dollar/Monat braucht vier Minuten, um das zu lösen, was ein Kind sofort schafft. DeepSeek und Mistral im Jahr 2025 zählen immer noch Buchstaben falsch. Die sich abzeichnende Lösung? Ein hybrider Ansatz - die klügsten Modelle haben herausgefunden, wann sie einen echten Taschenrechner aufrufen sollten, anstatt die Berechnung selbst vorzunehmen. Paradigmenwechsel: KI muss nicht alles können, sondern die richtigen Werkzeuge orchestrieren. Letztes Paradoxon: GPT-4 kann Ihnen auf brillante Weise die Grenzwerttheorie erklären, macht aber Multiplikationen falsch, die ein Taschenrechner immer richtig löst. Für den Mathematikunterricht sind sie hervorragend geeignet - sie erklären mit unendlicher Geduld, passen Beispiele an und schlüsseln komplexe Zusammenhänge auf. Für präzise Berechnungen? Verlassen Sie sich auf den Taschenrechner, nicht auf die künstliche Intelligenz.