L'Intelligenz Künstliche Intelligenz, angewandt auf die Kühlung von Daten stellt eine der wichtigsten Innovationen im Bereich der industriellen Energieoptimierung dar.
Das von Google DeepMind entwickelte autonome System, das seit 2018 in Betrieb ist, hat gezeigt, wie KI das Wärmemanagement kritischer Infrastrukturen verändern und konkrete Ergebnisse in Bezug auf die betriebliche Effizienz erzielen kann.
Moderne Rechenzentren sind riesige Energieverbraucher, wobei die Kühlung rund 10 Prozent des gesamten Stromverbrauchs ausmacht, so Jonathan Koomey, ein globaler Experte für Energieeffizienz. Das Cloud-basierte KI-System von Google erfasst alle fünf Minuten eine Momentaufnahme des Kühlsystems mit Tausenden von Sensoren. Die erste KI für die autonome Kühlung von Rechenzentren und die industrielle Steuerung - Google DeepMind- analysiert die betriebliche Komplexität, die sich herkömmlichen Kontrollmethoden entzieht.
Das KI-Kühlsystem von Google nutzt tiefe neuronale Netze, um die Auswirkungen verschiedener Maßnahmenkombinationen auf den künftigen Energieverbrauch vorherzusagen und zu ermitteln, welche Maßnahmen den Verbrauch minimieren und gleichzeitig robuste Sicherheitsanforderungen erfüllen DeepMind AI reduziert die Kühlkosten für das Google-Rechenzentrum um 40 % - Google DeepMind
Die bei der Optimierung der Kühlung erzielten Ergebnisse sind beachtlich: Das System war in der Lage, den Energieverbrauch für die Kühlung durchgängig um 40 % zu senken. Wenn man jedoch bedenkt, dass die Kühlung etwa 10 Prozent des Gesamtverbrauchs ausmacht, entspricht dies einer Gesamtenergieeinsparung von etwa 4 Prozent im Rechenzentrum.
Laut der technischen Originalarbeit von Jim Gao erreicht das neuronale Netz einen durchschnittlichen absoluten Fehler von 0,004 und eine Standardabweichung von 0,005, was einem Fehler von 0,4 % bei einer PUE von 1,1 entspricht.
Die Einführung des KI-Systems wurde in drei bestimmten Rechenzentren offiziell bestätigt:
Singapur: Der erste bedeutende Einsatz im Jahr 2016, bei dem das Rechenzentrum aufbereitetes Wasser für die Kühlung verwendet und eine Reduzierung der Kühlenergie um 40 % nachgewiesen hat.
Eemshaven, die Niederlande: Das Rechenzentrum nutzt Brauchwasser und verbrauchte im Jahr 2023 232 Millionen Gallonen Wasser. Marco Ynema, Standortleiter der Anlage, überwacht den Betrieb dieser modernen Anlage.
Council Bluffs, Iowa: In der MIT Technology Review wurde während der Diskussion über das KI-System speziell das Datenzentrum von Council Bluffs gezeigt. Google hat 5 Milliarden Dollar in die beiden Standorte in Council Bluffs investiert, die im Jahr 2023 980,1 Millionen Gallonen Wasser verbrauchten.
Ein cloudbasiertes KI-Kontrollsystem ist jetzt in Betrieb und sorgt für Energieeinsparungen in mehreren Google-Rechenzentren, aber dasUnternehmen hat noch nicht die vollständige Liste der Einrichtungen veröffentlicht, die diese Technologie nutzen.
Laut dem Patent US20180204116A1 verwendet das System eineDeep-Learning-Architektur mit präzisen technischen Merkmalen:
Die Architektur verwendet eine modellprädiktive Steuerung mit linearen ARX-Modellen, die mit tiefen neuronalen Netzen integriert sind. Bei neuronalen Netzen ist es nicht erforderlich, dass der Benutzer die Interaktionen zwischen den Variablen im Modell vordefiniert. Stattdessen sucht das neuronale Netz nach Mustern und Wechselwirkungen zwischen Merkmalen, um automatisch ein optimales Modell zu erstellen.
PUE steht für die grundlegende Energieeffizienz von Rechenzentren:
PUE = Gesamtenergie des Rechenzentrums / Energie der IT-Ausrüstung
Google verfügt über die ISO 50001-Zertifizierung für das Energiemanagement, die zwar strenge Betriebsstandards garantiert, aber nicht speziell die Leistung des KI-Systems validiert.
Das Herzstück der Innovation ist eine vorausschauende Steuerung, die die zukünftige Temperatur und den Druck im Rechenzentrum in der nächsten Stunde vorhersagt und die empfohlenen Maßnahmen simuliert, um sicherzustellen, dass keine betrieblichen Beschränkungen überschritten werden.
Nach vielen Versuchen und Fehlern sind die Modelle nun zu 99,6 Prozent genau bei der Vorhersage der PUE. Diese Genauigkeit ermöglicht Optimierungen, die mit herkömmlichen Methoden nicht möglich sind, da sie gleichzeitig die komplexen nichtlinearen Wechselwirkungen zwischen mechanischen, elektrischen und umwelttechnischen Systemen berücksichtigen.
Ein wichtiger Aspekt ist die evolutionäre Lernfähigkeit. Im Laufe von neun Monaten hat sich die Leistung des Systems von 12 % bei der Einführung auf etwa 30 % verbessert.
Dan Fuenffinger, Google-Betreiber, bemerkte: "Es war erstaunlich zu sehen, wie die KI lernte, die winterlichen Bedingungen zu nutzen und kälteres Wasser als normal zu produzieren. Die Regeln werden im Laufe der Zeit nicht besser, aber die KI schon".
Das System verwaltet 19 kritische Betriebsparameter gleichzeitig:
Die betriebliche Sicherheit wird durch redundante Mechanismen gewährleistet. Die von der KI berechneten optimalen Aktionen werden anhand einer internen Liste mit vom Betreiber definierten Sicherheitseinschränkungen überprüft. Nach der Übermittlung an das physische Rechenzentrum prüft das lokale Kontrollsystem die Anweisungen erneut. Die DeepMind-KI reduziert den Energieverbrauch für die Kühlung der Google-Rechenzentren um 40 Prozent.
Die Bediener behalten stets die Kontrolle und können den KI-Modus jederzeit verlassen und nahtlos zu herkömmlichen Regeln übergehen.
Die Branche erkennt die Grenzen der Power Usage Effectiveness als Messgröße an. Eine Umfrage des Uptime Institute aus dem Jahr 2014 ergab, dass 75 Prozent der Befragten der Meinung waren, die Branche benötige eine neue Effizienzkennzahl. Zu den Problemen gehören klimatische Verzerrungen (es ist unmöglich, verschiedene Klimazonen zu vergleichen), zeitliche Manipulation (Messungen unter optimalen Bedingungen) und der Ausschluss von Komponenten.
Jedes Rechenzentrum hat eine einzigartige Architektur und Umgebung. Ein maßgeschneidertes Modell für ein System ist möglicherweise nicht auf ein anderes anwendbar, so dass ein allgemeiner intelligenter Rahmen erforderlich ist.
Die Genauigkeit des Modells hängt von der Qualität und Quantität der Eingabedaten ab. Der Modellfehler steigt im Allgemeinen bei PUE-Werten über 1,14 aufgrund der Knappheit der entsprechenden Trainingsdaten.
Es wurden keine unabhängigen Prüfungen durch große Wirtschaftsprüfungsgesellschaften oder nationale Labors gefunden, und Google hat über die Mindestanforderungen des Bundes hinaus keine Prüfungen durch Dritte durchgeführt.
Im Zeitraum 2024-2025 verlagert Google den Schwerpunkt drastisch in Richtung:
Diese Veränderung zeigt, dass die KI-Optimierung bei den thermischen Belastungen moderner KI-Anwendungen an praktische Grenzen stößt.
DieKI-Optimierung für die Kühlung findet auch außerhalb von Rechenzentren Anwendung:
Energieeinsparungen bei Kühlsystemen führen zu:
Phase 1 - Bewertung: Energieaudit und Kartierung bestehender SystemePhase2 - Pilot: Tests in einer kontrollierten Umgebung auf einem begrenzten AbschnittPhase3 - Einführung: Schrittweise Einführung mit intensiver ÜberwachungPhase4 - Optimierung: Kontinuierliche Abstimmung und Kapazitätserweiterung
Drei Rechenzentren sind offiziell bestätigt: Singapur (erste Inbetriebnahme 2016), Eemshaven in den Niederlanden und Council Bluffs in Iowa. Das System ist in mehreren Google-Rechenzentren in Betrieb, aber die vollständige Liste wurde nie öffentlich bekannt gegeben.
Mit dem System lässt sich der Energieverbrauch für die Kühlung um 40 % senken. Wenn man bedenkt, dass die Kühlung etwa 10 Prozent des Gesamtverbrauchs ausmacht, beträgt die Gesamtenergieeinsparung etwa 4 Prozent des Gesamtverbrauchs des Rechenzentrums.
Das System erreicht eine Genauigkeit von 99,6 % bei der Vorhersage der PUE mit einem durchschnittlichen absoluten Fehler von 0,004 ± 0,005, was einem Fehler von 0,4 % bei einer PUE von 1,1 entspricht. Wenn die wahre PUE 1,1 ist, sagt die KI zwischen 1,096 und 1,104 voraus.
Das System arbeitet mit einer zweistufigen Überprüfung: Zunächst prüft die KI die von den Betreibern definierten Sicherheitsbedingungen, dann überprüft das lokale System die Anweisungen erneut. Die Bediener können die KI-Prüfung jederzeit deaktivieren und zu den herkömmlichen Systemen zurückkehren.
Die Umsetzung dauert in der Regel 6-18 Monate: 3-6 Monate für die Datenerfassung und die Modellschulung, 2-4 Monate für die Piloterprobung, 3-8 Monate für die schrittweise Einführung. Die Komplexität variiert je nach der vorhandenen Infrastruktur erheblich.
Ein multidisziplinäres Team mit Fachwissen in den Bereichen Datenwissenschaft/AI, HLK-Technik, Gebäudemanagement, Cybersicherheit und Systemintegration ist erforderlich. Viele Unternehmen entscheiden sich für Partnerschaften mit spezialisierten Anbietern.
Ja, die KI lernt automatisch, saisonale Bedingungen auszunutzen, z. B. im Winter kälteres Wasser zu produzieren, um Kühlenergie zu sparen. Das System wird durch die Erkennung von Wetter- und Klimamustern kontinuierlich verbessert.
Jedes Rechenzentrum verfügt über eine einzigartige Architektur und Umgebung, die eine erhebliche Anpassung erfordert. Die Komplexität der Implementierung, der Bedarf an spezifischen Daten und das erforderliche Fachwissen machen das Direktmarketing komplex. Nach acht Jahren ist diese Technologie immer noch ausschließlich intern bei Google.
Es wurden keine unabhängigen Prüfungen durch große Wirtschaftsprüfungsgesellschaften (Deloitte, PwC, KPMG) oder nationale Labors gefunden. Google ist zwar nach ISO 50001 zertifiziert, führt aber keine Prüfungen durch Dritte durch, die über die Mindestanforderungen des Bundes hinausgehen.
Ganz genau. Die KI-Optimierung für die Kühlung kann in Industrieanlagen, Einkaufszentren, Krankenhäusern, Firmenbüros und allen Einrichtungen mit komplexen HLK-Systemen angewendet werden. Die Prinzipien der multivariablen Optimierung und der prädiktiven Regelung sind universell anwendbar.
Das KI-Kühlsystem von Google DeepMind stellt eine technische Innovation dar, die schrittweise Verbesserungen in einem bestimmten Bereich erzielt. Für Unternehmen, die energieintensive Infrastrukturen betreiben, bietet diese Technologie konkrete Möglichkeiten zur Optimierung der Kühlung, wenn auch mit den hervorgehobenen Einschränkungen der Skalierung.
Hauptquellen: Jim Gao Google Research paper, DeepMind Official Blog, MIT Technology Review, Patent US20180204116A1