Die Geschichte der Assistenten mit künstlicher Intelligenz stellt eine bemerkenswerteEntwicklung von einfachen regelbasierten Systemen zu hochentwickelten Gesprächspartnern dar, die in der Lage sind, komplexe strategische Entscheidungen zu unterstützen. Da immer mehr Unternehmen diese Assistenten einsetzen, um ihre Produktivität und Entscheidungsprozesse zu verbessern, bietet das Verständnis dieser Entwicklung einen wertvollen Kontext für die effektive Nutzung dieser Technologien.
Nach Untersuchungen von Al-Amin et al. (2023) geht die erste theoretische Grundlage für künftige Chatbots auf das Jahr 1906 zurück, als der russische Mathematiker Andrey Markov die"Markov-Kette" entwickelte, ein grundlegendes statistisches Modell zur Vorhersage von Zufallsfolgen. Obwohl diese Methode im Vergleich zu den heutigen Technologien rudimentär war, stellte sie einen ersten Schritt dar, um Maschinen beizubringen, neue Texte auf probabilistische Weise zu erzeugen.
Ein entscheidender Moment in der Geschichte der konversationellen künstlichen Intelligenz war die Veröffentlichung vonAlan Turings Artikel"Computing Machinery and Intelligence" im Jahr 1950, in dem er das vorschlug, was wir heute als "Turing-Test" kennen. Mit diesem Test wird die Fähigkeit einer Maschine bewertet, in Gesprächen in natürlicher Sprache intelligentes Verhalten zu zeigen, das von menschlichem Verhalten nicht zu unterscheiden ist.
Der erste weithin anerkannte Chatbot war ELIZA, der 1966 von Joseph Weizenbaum am MIT entwickelt wurde. Wie Al-Amin et al. (2023) darlegen, simulierte ELIZA einen Therapeuten mithilfe einfacher Mustererkennungstechniken, die die Antworten des Nutzers widerspiegelten, um ein Gespräch zu simulieren. Trotz seiner Einfachheit schrieben viele Nutzer dem System ein menschenähnliches Verständnis zu.
Im Gegensatz zu ELIZA simulierte PARRY (1972 vom Psychiater Kenneth Colby in Stanford entwickelt) einen Patienten mit paranoider Schizophrenie. Er war der erste Chatbot, der einer Version des Turing-Tests unterzogen wurde, was den Beginn der Verwendung dieser Tests zur Bewertung der Gesprächsintelligenz von Chatbots markierte.
In den 1980er Jahren entstand Racter (1983), das in der Lage war, mit Hilfe von grammatikalischen Regeln und Randomisierung kreative Texte zu erzeugen, gefolgt von JABBERWACKY (1988) und TINYMUD (1989), die weitere Fortschritte bei der Simulation natürlicher Unterhaltungen darstellten.
Ein bedeutender Fortschritt wurde mit ALICE (Artificial Linguistic Internet Computer Entity) erzielt, das 1995 von Richard Wallace entwickelt wurde. ALICE verwendete die AIML (Artificial Intelligence Markup Language), die speziell für die Modellierung der natürlichen Sprache bei der Interaktion zwischen Mensch und Chatbot entwickelt wurde.
Im Zeitraum zwischen 2000 und 2015 wurden fortschrittlichere statistische Verfahren der natürlichen Sprachverarbeitung angewandt, die das Sprachverständnis erheblich verbesserten:
SmarterChild, entwickelt von ActiveBuddy im Jahr 2001, war einer der ersten Chatbots, die in Instant-Messaging-Plattformen integriert wurden und über 30 Millionen Nutzer erreichten.
Das 2003 von der DARPA gestartete Projekt CALO (Cognitive Assistant that Learns and Organises) legte den Grundstein für Siri, das von Apple übernommen und 2011 als virtueller Assistent des iPhone 4S eingeführt wurde. Wie Al-Amin et al. (2023) anmerken, stellte Siri einen bedeutenden Durchbruch bei der Integration von Sprachassistenten in Verbrauchergeräte dar, indem tiefe neuronale Netze zur Verarbeitung und zum Verständnis von Sprachbefehlen eingesetzt wurden.

Die Entwicklung von Siri* hat mit der Integration fortschrittlicher Modelle der künstlichen Intelligenz, die seine Fähigkeiten revolutioniert haben, einen neuen Meilenstein erreicht. Laut Al-Amin et al. (2023) nutzt diese neue, verbesserte Version von Siri ausgefeiltere neuronale Architekturen, um den Kontext des Gesprächs besser zu verstehen, sich an frühere Interaktionen zu erinnern und sich an die individuellen Präferenzen des Nutzers anzupassen. Der Assistent ist nun in der Lage, komplexe Anfragen, die sich über mehrere Schritte erstrecken, mit einem viel umfassenderen Kontextverständnis zu verstehen, was eine natürlichere und weniger fragmentierte Interaktion ermöglicht. Diese Integration ist ein wichtiger Schritt auf dem Weg zu virtuellen Assistenten, die echte Zwei-Wege-Gespräche unterstützen können.
Alexa+ stellt eine radikale Weiterentwicklung des Amazon-Ökosystems dar und verwandelt den Sprachassistenten in eine umfassende KI-Plattform für das Zuhause. Al-Amin et al. (2023) heben hervor, dass Alexa+ nicht mehr nur auf bestimmte Befehle reagiert, sondern durch die Integration fortschrittlicher Vorhersagemodelle in der Lage ist, die Bedürfnisse der Nutzer zu antizipieren. Das System kann selbstständig Smart-Home-Geräte koordinieren, maßgeschneiderte Automatisierungen auf der Grundlage erkannter Verhaltensmuster vorschlagen und natürlichere Interaktionen durch verbessertes Kontextverständnis ermöglichen. Zu den wichtigsten Neuerungen gehört, dass Alexa+ nun komplexe, mehrstufige Aufgaben ohne wiederholte Aktivierungen ausführen kann und den Kontext auch bei langen Interaktionssequenzen beibehält.
Microsofts Cortana (jetzt Copilot), die 2014 auf den Markt kam, bot Spracherkennungsfunktionen für Aufgaben wie das Einstellen von Erinnerungen, während IBMs Watson Assistant fortgeschrittene Sprachverständnis- und Analysefähigkeiten demonstrierte, 2011 bei Jeopardy! gewann und anschließend in verschiedenen Branchen Anwendung fand.
.png)
Die Untersuchung von Al-Amin et al. (2023) zeigt, dass die Einführung von ChatGPT durch OpenAI einen grundlegenden Durchbruch darstellt. Angefangen bei GPT-1 (2018) mit 117 Millionen Parametern bis hin zu GPT-3 (2020) mit 175 Milliarden Parametern nutzen diese Modelle die Transformer-Architektur, um Text mit noch nie dagewesenen Fähigkeiten zu verstehen und zu erzeugen. Die öffentliche Freigabe von ChatGPT im November 2022 markiert einen entscheidenden Moment für die Zugänglichkeit von KI im Dialog.
Als Antwort auf ChatGPT brachte Google 2023 Bard (jetzt Gemini) auf den Markt, das auf seinem LaMDA-Modell (Language Model for Dialogue Applications) basiert. Al-Amin et al. (2023) weisen darauf hin, dass Bard einen inkrementellen Ansatz verfolgte, bei dem nach und nach Funktionen wie Mehrsprachigkeit und professionelle Fähigkeiten in Programmierung und Mathematik hinzugefügt wurden.
Mit Blick auf die Zukunft entwickeln sich KI-Assistenten hin zu fortschrittlicheren Formen der kollaborativen Intelligenz. Die Forschung von Al-Amin et al. (2023) zeigt mehrere vielversprechende Entwicklungsbereiche auf:
Darüber hinaus unterstreicht die Studie die Verbreitung von KI-Assistenten in bestimmten Sektoren:
Die Entwicklung von einfachen Chatbots zu strategischen KI-Partnern stellt eine der bedeutendsten technologischen Transformationen unserer Zeit dar. Diese Entwicklung wurde durch interdisziplinäre wissenschaftliche Kräfte, kommerzielle Anwendungen und Nutzerbedürfnisse vorangetrieben. Die Integration fortschrittlicher Basismodelle in Assistenten wie Siri und Alexa+ beschleunigt diesen Wandel und führt zu zunehmend personalisierten und kontextabhängigen Erfahrungen. Da diese Systeme immer einflussreicher werden, ist eine verantwortungsvolle und transparente Entwicklung, die Innovation und ethische Erwägungen in Einklang bringt, von entscheidender Bedeutung.
Aktualisierte Anmerkung (November 2025): Die in diesem Artikel beschriebene erweiterte Version von Siri mit Apple Intelligence ist noch nicht veröffentlicht worden. Apple hat die Veröffentlichung vom Frühjahr 2025 auf das Frühjahr 2026 (iOS 26.4) verschoben und eine Partnerschaft mit Google angekündigt, um Gemini als zugrunde liegendes Modell für wichtige Teile des neuen Siri zu verwenden. Fortgeschrittene Funktionen - persönlicher Kontext, On-Screen-Verständnis und App-Integration - befinden sich weiterhin in der Entwicklung, wobei nur schrittweise Verbesserungen mit iOS 26 verfügbar sind.