Allgemeine künstliche Intelligenz (AGI) - ein System mit einer dem Menschen in allen Bereichen vergleichbaren oder überlegenen Intelligenz - gilt nach wie vor als der Heilige Gral der Technik. Im Jahr 2025 zeichnet sich jedoch immer deutlicher ein alternativer Weg ab: Wir erreichen die AGI nicht als einheitliches System, sondern durch eine immer überzeugendere Illusion, die durch die Kombination mehrerer spezialisierter enger KI entsteht.
Das Mosaik der künstlichen Intelligenz
Die heutige KI zeichnet sich durch spezifische Aufgaben aus: Large Language Models (LLM) bearbeiten Texte, Modelle wie Midjourney oder DALL-E erstellen Bilder, AlphaFold analysiert Proteine. Obwohl sie einzeln begrenzt sind, erwecken diese KI, wenn sie in ein koordiniertes Ökosystem integriert sind, den Anschein allgemeiner Intelligenz - ein "Proxy" für AGI.
Laut dem Bericht "AI Index 2025" der Stanford University stößt die KI trotz erheblicher Fortschritte weiterhin auf Hindernisse im Bereich des komplexen Denkens.
Die fortgeschritteneren Modelle lösen stark strukturierte Probleme, zeigen aber deutliche Einschränkungen, wenn es um logisches Denken, sequentielle Planung und abstraktes Denken geht.
Der "Society of Minds"-Ansatz und Multi-Agenten-Systeme
Im Jahr 2025 entwickelt sich die künstliche Intelligenz rasch von einer Nischentechnologie zu einem strategischen Element der technologischen und gesellschaftlichen Landschaft, mit tiefgreifenden kulturellen und ethischen Auswirkungen.
Dies hat zur Entstehung von Agenten-KI-Systemen geführt, die uns dem Horizont der allgemeinen künstlichen Intelligenz näher bringen.
In Multi-Agenten-Systemen arbeitet jeder Agent unabhängig und nutzt lokale Daten und autonome Entscheidungsprozesse, ohne von einer zentralen Steuerung abhängig zu sein.
Jeder Agent hat eine lokale Sicht, aber keiner hat eine globale Sicht auf das gesamte System. Diese Dezentralisierung ermöglicht es den Agenten, Aufgaben individuell zu erledigen und gleichzeitig durch Interaktion zu den Gesamtzielen beizutragen.
Im Jahr 2025 werden Multiagentensysteme - bei denen mehrere KI-Agenten zusammenarbeiten, um komplexe Ziele zu erreichen - immer beliebter. Diese Systeme können Arbeitsabläufe optimieren, Erkenntnisse gewinnen und bei Entscheidungsprozessen in verschiedenen Bereichen helfen.
Im Kundenservice beispielsweise bearbeiten KI-Agenten komplexe Anfragen, in der Produktion überwachen sie Produktionslinien in Echtzeit, in der Logistik koordinieren sie Lieferketten dynamisch.
Das rechnerische Plateau und physikalische Barrieren
Trotz beeindruckender Fortschritte erreichen wir allmählich ein Plateau bei der Entwicklung traditioneller Rechenverfahren. Von 1959 bis 2012 verdoppelte sich die für das Training von KI-Modellen benötigte Energiemenge alle zwei Jahre, entsprechend dem Mooreschen Gesetz. Die jüngsten Daten zeigen jedoch, dass sich die Verdopplungszeit nach 2012 deutlich beschleunigt hat - alle 3,4 Monate -, so dass die aktuelle Rate mehr als siebenmal so hoch ist wie die vorherige.
Dieser dramatische Anstieg der erforderlichen Rechenleistung unterstreicht, wie schwierig es geworden ist, auf dem Gebiet der KI signifikante Fortschritte zu erzielen.
Das Versprechen der Quanteninformatik
Die Quanteninformatik könnte dieses Hindernis überwinden und einen Paradigmenwechsel bei der für noch anspruchsvollere Modelle erforderlichen Rechenkapazität bewirken. Im Jahr 2025 wird sich das Quantencomputing als entscheidendes Instrument zur Bewältigung dieser Herausforderungen erweisen, da Technologieunternehmen alternative Energiequellen nutzen, um mit dem steigenden Energieverbrauch der KI Schritt zu halten.
Nach einer Prognose von Arvind Krishna, CEO von IBM, könnte der Energie- und Wasserverbrauch von KI dank der rasanten Fortschritte im Quantencomputing in den nächsten fünf Jahren um bis zu 99 Prozent reduziert werden.
Diese Technologie verspricht, bisher unvorstellbare Rechenkapazitäten zu erschließen und neue Grenzen in der wissenschaftlichen Forschung zu eröffnen.
Ein bedeutender Durchbruch wurde im März 2025 von D-Wave Quantum verkündet, die eine von Experten begutachtete Arbeit mit dem Titel "Beyond-Classical Computation in Quantum Simulation" veröffentlichten, in der nachgewiesen wurde, dass ihr Glühquantencomputer einen der weltweit leistungsstärksten klassischen Supercomputer übertraf bei bei der Lösung komplexer Simulationsprobleme von magnetischen Materialien.
Im Jahr 2025 werden im Bereich der Quanteninformatik bahnbrechende Fortschritte erzielt, mit großen Fortschritten bei der Hardware, der Fehlerkorrektur, der Integration mit KI und Quantennetzwerken. Diese Fortschritte definieren die mögliche Rolle des Quantencomputings in Bereichen wie Gesundheitswesen, Finanzen und Logistik.
Laut Forrester ist die Quanteninformatik trotz der Fortschritte im Jahr 2025 immer noch experimentell und hat für die meisten Anwendungen noch keinen praktischen Vorteil gegenüber klassischen Computern gezeigt.
Das Quantenrennen: Microsoft gegen Google?
Microsoft behauptet, mit seinem Anfang 2025 vorgestellten Majorana-1-Chip bedeutende Fortschritte im Bereich der Quanteninformatik erzielt zu haben. Dieser Prozessor verfügt über eine neue Topological-Core-Architektur mit acht topologischen Qubits, die Majorana-Teilchen manipulieren, Quasiteilchen, die als "Halbelektronen" fungieren und für ihre hohe Fehlerresistenz bekannt sind.
Google hingegen hat mit seinem revolutionären Quantenchip namens Willow einen anderen Ansatz entwickelt, der das herkömmliche Problem der mit der Anzahl der Qubits zunehmenden Fehlerrate löst - Willow wird sogar genauer, je mehr Qubits hinzugefügt werden.
Diese beiden unterschiedlichen Strategien repräsentieren grundlegend verschiedene Ansätze für das Quantencomputing, wobei sich Microsoft auf die Topologie und Google auf die Fehleroptimierung konzentriert.
Fortbestehende kognitive Barrieren
Neben den Hardware-Beschränkungen stößt die künstliche Intelligenz auf weitere grundlegende Hindernisse:
Kausales Verständnis: Systeme korrelieren Variablen, isolieren aber keine echten Ursache-Wirkungs-Beziehungen. Die KI hat in vielen Bereichen erhebliche Fortschritte gemacht, stößt aber nach wie vor auf Grenzen beim Verstehen und Reagieren auf menschliche Emotionen, bei der Entscheidungsfindung in Krisensituationen und bei der Bewertung von ethischen und moralischen Erwägungen.
Kontinuierliches Lernen: Neuronale Netze verlieren an Genauigkeit, wenn sie nacheinander für verschiedene Aufgaben trainiert werden, was zu einer Art "katastrophaler Amnesie" führt.
Metakognition: KIs haben kein internes Modell ihrer eigenen Kognition, was eine echte Selbstverbesserung einschränkt.

Auf dem Weg zu einem 'Proxy'-AGI
Die wissenschaftliche Gemeinschaft scheint in Bezug auf die Technologien und den Zeitrahmen, die erforderlich sind, um das Ziel der allgemeinen künstlichen Intelligenz (AGI) zu erreichen, ziemlich geteilter Meinung zu sein, aber die Debatte gibt Anlass zu einigen interessanten neuen Vorschlägen, die bereits praktische Anwendung in der Erforschung neuer KI-Systeme finden.
2025 könnte das Jahr sein, in dem die ersten Agentensysteme in Unternehmen in Betrieb genommen werden.
Während AGI das ehrgeizigste Ziel darstellt - Systeme mit kognitiven Fähigkeiten, die mit denen des Menschen vergleichbar oder ihnen sogar überlegen sind und die in der Lage sind, Wissen zu verstehen, zu lernen und in einer bereichsübergreifenden Weise anzuwenden.
Anstatt auf eine monolithische AGI zu warten, wird es in Zukunft eher so etwas wie "Front-AGIs" geben - Systeme, die den Anschein erwecken, dass sie über eine allgemeine Intelligenz verfügen:
- Orchestrierung von KI-Microservices: Mehrere spezialisierte KIs, die über eine gemeinsame Abstraktionsebene koordiniert werden.
- Vereinheitlichte Konversationsschnittstellen: Eine einzige Schnittstelle, hinter der sich die Komplexität mehrerer zugrunde liegender Systeme verbirgt.
- Begrenztes transversales Lernen: Selektiver Austausch von Wissen zwischen spezifischen Bereichen.
Bewusstsein: Realität oder geteilte Illusion?
In der AGI-Debatte neigen wir dazu, es als gegeben hinzunehmen, dass Menschen mit einem "Bewusstsein" ausgestattet sind, das Maschinen nicht nachahmen können. Aber vielleicht sollten wir uns eine radikalere Frage stellen: Ist das menschliche Bewusstsein selbst real oder ist es auch eine Illusion?
Einige Neurowissenschaftler und Philosophen des Geistes wie Daniel Dennett haben vorgeschlagen, dass das, was wir als "Bewusstsein" bezeichnen, möglicherweise selbst eine eine post-hoc-Erzählung ist - eine Interpretation, die das Gehirn konstruiert, um seinen Operationen einen Sinn zu geben.
Wenn wir das Bewusstsein nicht als eine mysteriöse, einheitliche Eigenschaft betrachten, sondern als eine Reihe miteinander verbundener neuronaler Prozesse, die die überzeugende Illusion eines einheitlichen "Selbst" erzeugen, dann wird die Grenze zwischen Menschen und Maschinen weniger klar.
Aus dieser Perspektive könnten wir die Unterschiede zwischen aufstrebenden AGI und menschlicher Intelligenz als Unterschiede im Grad und nicht in der Natur betrachten. Die Illusion des Verstehens, die wir in fortgeschrittenen Sprachmodellen sehen, unterscheidet sich vielleicht gar nicht so sehr von der Illusion des Verstehens, die wir selbst erleben - beide entstehen aus komplexen Netzwerken von Prozessen, wenn auch auf grundlegend unterschiedliche Weise organisiert.
Diese Perspektive wirft eine provokante Frage auf: Wenn das menschliche Bewusstsein selbst eine Simulation ist, die aus mehreren miteinander verbundenen kognitiven Prozessen hervorgeht, dann könnte die "stellvertretende" AGI, die wir konstruieren - ein Mosaik aus spezialisierten Systemen, die zusammenarbeiten, um ein allgemeines Verständnis zu simulieren - unserer eigenen mentalen Architektur verblüffend ähnlich sein.
Wir würden nicht versuchen, eine magische, unaussprechliche Qualität zu replizieren, sondern vielmehr die überzeugende Illusion zu rekonstruieren, die wir selbst als Bewusstsein erleben.
Diese Überlegung schmälert nicht die Tiefe der menschlichen Erfahrung, sondern lädt uns dazu ein, zu überdenken, was wir wirklich meinen, wenn wir von "Bewusstsein" sprechen, und ob dieses Konzept wirklich ein unüberwindbares Hindernis für künstliche Intelligenz ist oder einfach nur ein weiterer Prozess, den wir vielleicht eines Tages simulieren können.

Schlussfolgerung: Die Ziellinie überdenken
Vielleicht sollten wir unsere Definition von AGI grundlegend überdenken. Wenn das menschliche Bewusstsein selbst eine auftauchende Illusion sein könnte - eine Erzählung, die das Gehirn konstruiert, um seinen eigenen Operationen einen Sinn zu geben - dann wird die scharfe Unterscheidung zwischen menschlicher und künstlicher Intelligenz weniger klar.
Experten sagen voraus, dass das Jahr 2027 ein entscheidender Moment für die KI sein könnte. Bei dem derzeitigen Tempo könnten die Modelle innerhalb weniger Jahre kognitive Allgemeingültigkeit erreichen - die Fähigkeit, jede menschliche Aufgabe zu bewältigen.
Dieses Szenario sollte nicht einfach als Replikation menschlicher Intelligenz betrachtet werden, sondern als das Entstehen einer neuen Art von Intelligenz - weder vollständig menschlich noch vollständig künstlich, sondern etwas anderes und potenziell Komplementäres.
Dieser Ansatz befreit uns von dem Versuch, etwas zu replizieren, das wir möglicherweise nicht vollständig verstehen - das menschliche Bewusstsein - und ermöglicht es uns stattdessen, uns auf das zu konzentrieren, was künstliche Intelligenz aus sich selbst heraus leisten kann. Die entstehende AGI wird also kein einzelnes System sein, das vorgibt, ein Mensch zu sein, sondern ein integriertes technologisches Ökosystem mit eigenen emergenten Merkmalen - eine verteilte Intelligenz, die paradoxerweise die fragmentierte und vernetzte Natur unserer eigenen Kognition stärker widerspiegeln könnte, als wir ursprünglich dachten.
In diesem Sinne wird die AGI-Forschung nicht so sehr zu einem Versuch, den Menschen nachzuahmen, sondern zu einer Entdeckungsreise zum Wesen von Intelligenz und Bewusstsein, sowohl des menschlichen als auch des künstlichen.
Quellen
- https://www.justthink.ai/artificial-general-intelligence/understanding-agi-vs-narrow-ai-explaining-the-differences-and-implications
- https://www.rand.org/pubs/commentary/2024/02/why-artificial-general-intelligence-lies-beyond-deep.html
- https://futurism.com/glimmers-agi-illusion
- https://ai.stackexchange.com/questions/26007/are-there-any-approaches-to-agi-that-will-definitely-not-work
- https://qubic.org/blog-detail/the-path-to-agi-overcoming-the-computational-challenge
- https://www.linkedin.com/pulse/amplification-intelligence-recursive-self-improvement-gary-ramah-0wjpc
- https://www.investopedia.com/artificial-general-intelligence-7563858