Im September 2025 machte OpenAI eine Enthüllung, die die globale Tech-Community erschütterte: ChatGPT überwacht aktiv die Unterhaltungen der Nutzer und meldet potenziell kriminelle Inhalte an die Strafverfolgungsbehörden.
Die Nachricht, die fast zufällig in einem Beitrag im Unternehmensblog auftauchte, enthüllte, dass, wenn automatisierte Systeme Nutzer erkennen, die „vorhaben, anderen Schaden zuzufügen“, die Unterhaltungen an spezialisierte Pipelines weitergeleitet werden, wo sie von einem kleinen, in den Nutzungsrichtlinien geschulten Team geprüft werden. Wenn die menschlichen Prüfer feststellen, dass eine „unmittelbare Gefahr schwerer körperlicher Schäden für andere“ besteht, kann der Fall an die Strafverfolgungsbehörden weitergeleitet werden¹.

ChatGPT lädt Sie herzlich ein, Ihre intimsten Gedanken mitzuteilen. Keine Sorge, alles bleibt vertraulich ... mehr oder weniger.
Quellen:
Wenn wir mit einem Psychologen, einem Anwalt, einem Arzt oder einem Priester sprechen, sind unsere Worte durch einen fest verankerten Rechtsmechanismus geschützt: das Berufsgeheimnis. Dieser Grundsatz, der auf einer jahrhundertelangen Rechtstradition beruht, legt fest, dass bestimmte Gespräche auch im Falle strafrechtlicher Ermittlungen unantastbar sind.
Merkmale des traditionellen Berufsgeheimnisses:
Entgegen der allgemeinen Auffassung ist das Berufsgeheimnis nicht absolut. Es gibt klar definierte Ausnahmen, die je nach Berufsgruppe variieren:
Für Rechtsanwälte (Art. 28 des Verhaltenskodexes für Rechtsanwälte): Die Weitergabe ist zulässig, wenn sie erforderlich ist für:
Kritisches Beispiel: Wenn ein Mandant seinem Anwalt mitteilt, dass er einen Mord begehen will, hat zwischen dem Schutz des Rechts auf Verteidigung und dem Schutz des Lebensgutes Letzteres Vorrang, und der Anwalt ist von seiner Schweigepflicht entbunden².
Für Psychologen (Art. 13 des Berufskodexes): Die Schweigepflicht kann verletzt werden, wenn:
Wichtige Unterscheidung: Der private Psychologe hat einen größeren Ermessensspielraum als der öffentliche Psychologe, der als Amtsträger strengeren Meldepflichten unterliegt³.
Quellen:
ChatGPT bewegt sich in einer ganz anderen Grauzone:
Fehlendes Anwaltsgeheimnis: Gespräche mit KI genießen keinen rechtlichen Schutz. Wie Sam Altman, CEO von OpenAI, zugab: „Wenn Sie mit einem Therapeuten, Anwalt oder Arzt über diese Probleme sprechen, gilt dafür das Anwaltsgeheimnis. Es gibt die ärztliche Schweigepflicht, es gibt die Anwalts- und Mandanten-Vertraulichkeit, was auch immer. Und wir haben das noch nicht gelöst, wenn man mit ChatGPT spricht.“²
Automatisierter Prozess: Im Gegensatz zu einem menschlichen Fachmann, der jeden Fall einzeln bewertet, verwendet ChatGPT Algorithmen, um „problematische“ Inhalte zu identifizieren, wodurch die qualifizierte menschliche Beurteilung aus der ersten Screening-Phase entfernt wird.
Quellen:
Die Situation führt zu einem beunruhigenden Paradoxon. Millionen von Menschen nutzen ChatGPT als digitalen Vertrauten und teilen intime Gedanken, Zweifel, Ängste und sogar kriminelle Fantasien, die sie niemals einem Menschen anvertrauen würden. Sam Altman berichtet: „Die Menschen erzählen ChatGPT die persönlichsten Dinge aus ihrem Leben. Sie nutzen es – insbesondere junge Menschen – als Therapeuten und Lebensberater.“⁴
Das Risiko krimineller Selbstzensur: Das Bewusstsein, dass Gespräche überwacht werden können, könnte paradoxerweise:
Ein entscheidender Aspekt, auf den Kritiker hinweisen, betrifft die Kompetenz derjenigen, die die endgültigen Entscheidungen treffen.
Menschliche Fachkräfte haben:
Das ChatGPT-System funktioniert mit:
Problematisches Beispiel: Wie unterscheidet ein Algorithmus zwischen:
Quellen:
Quellen:
Das Eingeständnis von OpenAI steht in krassem Widerspruch zu seinen früheren Positionen. Das Unternehmen hat sich unter Berufung auf den Datenschutz vehement gegen die Herausgabe von Nutzerdaten in Gerichtsverfahren gewehrt. Im Fall gegen die New York Times hat OpenAI nachdrücklich gegen die Offenlegung von Chat-Protokollen argumentiert, um die Privatsphäre der Nutzer zu schützen⁴.
Die Ironie der Situation: OpenAI verteidigt die Privatsphäre der Nutzer vor Gericht, während es gleichzeitig zugibt, Daten zu überwachen und an externe Behörden weiterzugeben.
Die Situation wurde durch die gerichtliche Anordnung, dass OpenAI alle ChatGPT-Protokolle auf unbestimmte Zeit aufbewahren muss, einschließlich privater Chats und API-Daten, weiter verkompliziert. Das bedeutet, dass Unterhaltungen, die Nutzer für vorübergehend hielten, nun dauerhaft gespeichert werden⁵.
Quellen:
Wie Sam Altman vorgeschlagen hat, könnte es notwendig sein, ein Konzept des „KI-Privilegs” zu entwickeln – einen rechtlichen Schutz, der demjenigen ähnelt, den traditionelle Berufe genießen. Dies wirft jedoch komplexe Fragen auf:
Mögliche Regulierungsoptionen:
IA „Kompartimentiert“:
„Dreigliedriger“ Ansatz:
Lehren aus anderen Bereichen:
Quellen:
Der Fall OpenAI schafft wichtige Präzedenzfälle für den gesamten Bereich der künstlichen Intelligenz:
Für Unternehmen, die dialogorientierte KI entwickeln:
Für Unternehmen, die KI einsetzen:
Das zentrale Dilemma: Wie lässt sich die Prävention realer Straftaten mit dem Recht auf Privatsphäre und digitale Vertraulichkeit in Einklang bringen?
Die Frage ist nicht nur technischer Natur, sondern betrifft grundlegende Prinzipien:
Die Enthüllung von OpenAI markiert einen Wendepunkt in der Entwicklung der künstlichen Intelligenz, aber es geht nicht darum, ob die Meldung absolut richtig oder falsch ist, sondern darum, wie sie effektiv, fair und rechtskonform gestaltet werden kann.
Die Notwendigkeit ist real: Konkrete Gewaltandrohungen, geplante Anschläge oder andere schwere Straftaten erfordern ein Eingreifen. Die Frage ist nicht, ob man Meldung erstatten soll, sondern wie man dies verantwortungsbewusst tun kann.
Die grundlegenden Unterschiede, die es zu lösen gilt:
Ausbildung und Kompetenz:
Transparenz und Kontrolle:
Verhältnismäßigkeit:
Für Unternehmen dieser Branche besteht die Herausforderung darin, Systeme zu entwickeln, die die Gesellschaft wirksam schützen, ohne zu Instrumenten einer wahllosen Überwachung zu werden. Das Vertrauen der Nutzer ist unerlässlich, muss jedoch mit sozialer Verantwortung einhergehen.
Für die Nutzer ergibt sich daraus eine doppelte Lehre:
Die Zukunft der dialogorientierten KI erfordert einen neuen Rahmen, der:
Die richtige Frage lautet nicht, ob Maschinen Straftaten melden sollten, sondern wie wir dafür sorgen können, dass sie dies (mindestens) mit derselben Klugheit, Ausbildung und Verantwortung tun wie menschliche Fachkräfte.
Das Ziel besteht nicht darin, zu einer KI zurückzukehren, die für reale Gefahren „blind” ist, sondern Systeme zu entwickeln, die technologische Effizienz mit Ethik und menschlicher Kompetenz verbinden. Nur so können wir das Beste aus beiden Welten haben: Sicherheit und geschützte individuelle Rechte.