Friscaldo - Logo - Home
Einzige Fachzeitschrift für Industrie-, Gewerbe-, Klimakälte und Wärmepumpen

Jedes Kind kennt heute die «Cloud». Was als ausgeklügelte Werbekampagne begann, bestimmt heute das Business, den Alltag, unsere ganze Welt. Dafür jagen täglich unvorstellbare Datenmengen um den Erdball, werden zentral in gigantischen Rechenzentren oder lokal beim Eigentümer verarbeitet und gespeichert – auf firmeneigenen und auf fremden Servern. Denn die «Cloud» ist nur eine von verschiedenen Möglichkeiten, seine Daten zu speichern und zu kühlen. Interessante Aussichten für die Kälte- und Klimabranche.

Expertengespräche zu IT-Trends und zur Kühlung von Rechenzentren

Digitale Medien und soziale Netzwerke sind in der modernen Welt mit schwindelerregender Geschwindigkeit angekommen. Nach der industriellen ist die digitale Revolution der nächste einschneidende Umbruch unserer Gesellschaft. Ein Resultat dessen sind gigantische Datenautobahnen und neue, stetig wachsende globale Strukturen zum Informationsaustausch. Dafür arbeiten Rechner aller Grössenordnungen rund um die Uhr. Neben dem Bedarf an eine sichere Netzanbindung oder die unterbrechungsfreie Stromversorgung erzeugen IT-Geräte ständig Wärme, die mittels Kühlung abgeführt werden muss.

Ein Markt im Wandel

Das rasante Wachstum der IT-Branche hat auch zur Suche nach alternativen und energieeffizienten Klima- und Lüftungssystemen sowie Rückkühlwerken geführt, um Rechenzentren nachhaltig zu temperieren. Denn es geht um immer grössere Mengen dafür benötigten Stroms und um Abwärme, die vernichtet oder wenn möglich einer Verwendung zugeführt werden kann. Neben den grossen IT-Klimalösungen der «Cloud» von Facebook, Google und Co. wird auch der Bedarf kleiner und mittlerer Betriebe in Gewerbe, Industrie der Wissenschaft oder öffentlichen Hand immer grösser. Dort sind aus vielfältigen Gründen interne Serverlösungen im Einsatz, wobei nicht selten sogar eine Abstellkammer oder ein Kellerraum dafür gewählte Standorte sind.

Der Markt für Informationstechnologien und Telekommunikation befindet sich in einem Wandel, der auch die TGA-Branche betrifft. Und die Geschwindigkeit ist atemberaubend. Drei Kenner und Experten beleuchten im Folgenden aus der Sicht eines Fachplaners, Geräteherstellers und Fachmedien-Marktbegleiters, was schon passiert, sich abzeichnet und worauf die Branche sich einstellen muss, um bei der Rechenzentrumskühlung nicht abgehängt zu werden.

Frage: Wie sehen Sie generell die Entwicklung des Marktes für Rechenzentren und andere Facilities zur Datenspeicherung und -sicherung?

Betz: Die Entwicklung des Marktes für Rechenzentren entwickelt sich sowohl in Europa als auch weltweit aus meiner Sicht sehr dynamisch, mit deutlich überdurchschnittlichen Wachstumsraten. Insbesondere für Colocation-Dienstleistungen werden massiv zusätzliche Rechenzentrumskapazitäten benötigt. Die Gründe dafür sind die steigenden IKT1-Sicherheitsanforderungen und Back-up-Datenspeicherung, allgemein stark steigende Datenmengen, ein Trend zum Outsourcing sowie das schnelle Wachstum von Cloud-Diensten.

Koch: Als Klimagerätehersteller und Lösungsgeber stecken wir in diesem Thema leider nicht ganz so tief drin. Einen Anhaltspunkt liefert aber sicher die Tatsache, dass der Anteil der Speicher am Energieverbrauch von Rechenzentren ansteigt. Das bestätigte unlängst das Fraunhofer IZM mit einer umfassenden Studie im Auftrag des BMWi.2 Ausser der Tatsache, dass die Energieeffizienz für ein typisches Rechenzentrum deutlich besser wurde, sieht man, dass der Verbrauch für die IT angestiegen ist und innerhalb der IT der Anteil für die Speichersysteme sehr deutlich zugenommen hat.

Schröper: Der Markt boomt ganz eindeutig, und zwar in allen Grössenausprägungen. Dies gilt trotz der Verlagerung vieler ehemals interner Rechenzentrumsaufgaben in die Umgebungen der sehr grossen Dienstleister wie etwa Google, Amazon oder Microsoft. Unter anderem aus juristischen Gründen wollen und müssen Unternehmen zum Beispiel personenbezogene Daten inhouse behalten. Dabei geht es dann um firmeneigene Rechenzentren traditioneller Grösse, die aber auch besonders effizient sein müssen, weil sie mit den ganz Grossen in Konkurrenz stehen. Das «Internet der Dinge» oder auch der autonome Verkehr werden nach Aussagen vieler Experten zu einem Bedarf an sehr vielen kleinen und in der Fläche verteilten Rechenzentren führen. Dabei geht es dann nicht um besonders grosse Datenmengen, sondern um minimale Latenz bei der Übertragung. Denn eine Drohne in der Landwirtschaft oder die Verkehrssteuerung selbst fahrender Autos kann nicht darauf warten, dass benötigte Daten aus einem entfernten Rechner zurückkommen. 

Frage: Wie lassen sich grundsätzlich die Betreiber differenzieren und welche unterschiedlichen Anforderungen haben die einzelnen Gruppen?

Betz: Die Betreiber lassen sich in folgende Kategorien einteilen:

– Industrie
– 
Finanzdienstleistung
– 
Öffentliche Betreiber (z. B. Verwaltungen, Krankenhäuser)
– 
Colocation
– 
Forschung und HPC-Computing 

Ebenso unterschiedlich wie die Betreiber selbst sind deren Anforderungen.

Industrie: Hohe bis sehr hohe Anforderungen an Ausfallsicherheit, da ein Produktionsausfall infolge eines IT-Ausfalls schnell sehr hohe Kosten und finanzielle Schäden verursacht. Die Energieeffizienz ist der Betriebssicherheit untergeordnet.

«Die Verkehrssteuerung selbst fahrender Autos kann nicht darauf warten, dass benötigte Daten aus einem entfernten Rechner zurückkommen.»

Finanzdienstleistung: Hat sehr hohe Anforderungen an Ausfallsicherheit, da ein IT-Ausfall sehr hohe finanzielle Schäden verursacht. Die Energieeffizienz ist der Betriebssicherheit untergeordnet.

Öffentliche Betreiber: Haben hohe Anforderungen an Ausfallsicherheit, aber die Energieeffizienz rückt zunehmend in den Focus aufgrund politischer Vorgaben.

Colocation: Colocationdienstleis-ter haben sehr hohe Anforderungen an Ausfallsicherheit, aber gleichzeitig auch hohe Anforderungen an die Energieeffizienz, vor allem zur Energiekostenminimierung. Denn beides wird von Endkunden gleichermassen gefordert.

Forschung und HPC-Computing: Beide haben hohe Anforderungen an Ausfallsicherheit, aber tendenziell etwas geringer als in den anderen Bereichen, da die Forschungs- und Hochleistungs-Rechenanwendungen (HPC) eher nicht ununterbrochen laufen und bei einer Unterbrechung des Betriebes tendenziell eher geringere finanzielle Schäden entstehen. Im Forschungs- und HPC-Bereich ist die Minimierung der Gesamtkosten ebenfalls sehr wichtig, wie auch eine möglichst kompakte und geringe Investitionskosten verursachende Bauweise der Rechenzentren, da Projekte von der öffentlichen Hand bei geringerem Flächen- und Kostenbedarf einfacher und schneller politisch umsetzbar und auch genehmigungsfähig sind.

Die Prioritäten liegen zwischen «Höchste Verfügbarkeit, koste es was es wolle (Banken)» und «Sehr gute Verfügbarkeit bei günstigen Betriebskosten (Colocation).»

Koch: Betreiber lassen sich grundsätzlich unterscheiden in solche, die IT als Geschäft betreiben (Colocation oder Cloud), und solche, die IT brauchen, um ihr Geschäft zu betreiben. Je nachdem liegen die Prioritäten auf verschiedenen Schwerpunkten zwischen «Höchste Verfügbarkeit, koste es was es wolle» (Banken), «Möglichst geringes Investment und Betriebskosten, wir wollen so viele Rechner kaufen wie irgend möglich» (wissenschaftlicher Supercomputer) und «Sehr gute Verfügbarkeit bei günstigen Betriebskosten und guter flexibler Anpassbarkeit» (Colocation).

Digitalisierung von Geschäftsprozessen zunehmend

Für jedes Unternehmen stellt sich die Frage, ob es seine IT im eigenen Unternehmen betreiben, IT-Leistungen aus einer Cloud beziehen oder mit ihrer IT-Infrastruktur in Colocation gehen will. In vielen Fällen wird es ein Mix sein. Denn je nach Anforderung an die Verfügbarkeit kann die Forderung nach Redundanz bestehen. Das lässt sich gut über eine Kombination eines eigenen Rechenzentrums mit Colocation oder Cloud realisieren. Für alle Betreiber stellt sich die Anforderung, ihre IT und die Infrastruktur weiterzuentwickeln und qualitativ zu verbessern. Sie sind getrieben durch die zunehmende Bedeutung der Digitalisierung von Geschäftsprozessen, der Notwendigkeit schneller Reaktion auf neue Anforderungen und wachsende Sicherheitsprobleme.

«Die optimale Klimatisierungslösung für ein Rechenzentrum ist immer individuell.»

Frage: Wie bedeutend sind Kühlung bzw. Klimatisierung geworden und worauf sollten Fachplaner besonders achten, um Kunden nachhaltige Lösungen anzubieten?

Betz: Kühlung und Klimatisierung ist sowohl hinsichtlich des Energiebedarfs und der resultierenden Energiekosten als auch hinsichtlich der Betriebskosten und des Wartungsaufwandes wichtig. Heute sind Kühlung oder Klimatisierung bei den Kunden erfahrungsgemäss sehr stark in den Fokus gerückt. Sie überdecken teilweise sogar andere Energieeffizienzthemen wie beispielsweise die Energieeffizienz von USV- und Netzersatzanlagen. Es besteht aber in der Regel ein hoher Beratungsbedarf bezüglich der Kühlung und Klimatisierung. Denn unsere Kunden kennen sich in elektrotechnischen Themen tendenziell besser aus als mit Kälte- und Klimatechnik.

Die optimale Klimatisierungslösung für ein Rechenzentrum ist immer individuell. Um Kunden nachhaltige Lösungen anzubieten, müssen verschiedene Varianten untersucht werden und für jede Variante gleichzeitig Aspekte berücksichtigt werden, wie:

– Standort und Klimabedingungen
– Anforderungen an die Betriebssicherheit und Redundanzanforderungen
– IT-Leistungsanforderungen
– IT-Temperaturanforderungen
– Investitionskosten der TGA-Anlagen (Mechanik und Elektro)
– Investitionskosten des Gebäudes und des Innenausbaus
– Elektrischer Energiebedarf
– Aufwand (monetär und hinsichtlich eigenen Personalbedarfs) für Betrieb und Wartung
– Gesamtkosten (TCO)

Koch: Die Kühlung und Klimatisierung im Sinne von Einhalten niedriger Temperaturen und einer präzisen Regelung von Temperatur und Feuchte stehen nicht mehr im Vordergrund. Denn aktuelle IT-Geräte vertragen inzwischen relativ extreme Bedingungen.3 Aber es bleibt die Aufgabe, sehr grosse Wärmemengen abzuführen. Denn jedes Watt an Strom, das einem Rack zugeführt wird, muss als Wärme wieder hinaus. Deshalb ist heute bevorzugt eher vom «Thermal Management» die Rede als von Kühlung. Das bleibt ein Dauerbrenner und wird die Branche beschäftigen, bis Technologien gefunden sind, die den Energieverbrauch der IT drastisch absenken. Und die Suche läuft. Vorerst haben wir es aber meistens mit luftgekühlten Geräten zu tun, die mit steigender Leistungsdichte warme oder heisse Luft hinaus-blasen.

«Es bleibt die Aufgabe, sehr grosse Wärmemengen abzuführen.»

Dem TGA-Fachplaner und Betreiber bietet sich heute eine verwirrende Fülle von Technologien und Systemen. Nun heisst es, in diesem Zusammenhang auch, ressourcenschonende und effiziente, also nachhaltige, Lösungen zu erarbeiten. Vor allem aber heisst es, sich auf unbekannte Veränderungen in der Zukunft einzustellen. Zum Beispiel gibt es heute einen deutlichen Trend, immer höhere Ansaugtemperaturen zu akzeptieren, die Leistungsdichte je Rack zu erhöhen, eventuell nach und nach auf Flüssigkeit gekühltes IT-Equipment umzustellen. Und möglicherweise wird man künftig mit weniger Redundanz auskommen, weil IT-Anwendungen per Virtualisierung «beweglich» werden, damit schnell auf andere Teile eines Rechenzentrums oder einen anderen Standort «umgezogen» werden kann.

Eine sorgfältige Analyse aller Faktoren

Die Antwort auf die Frage nach der Rechenzentrumskühlung muss eine sorgfältige Analyse aller Faktoren sein. Und es bedarf einer Prognose über zukünftige Entwicklungen, am besten mit zwei oder drei verschiedenen Szenarien. Als Lösung sollte man auf jeden Fall ein modulares Konzept vorsehen – gleich ob einzelne Racks, Container, Räume oder ganze Gebäude die Module sind. Das ermöglicht einem, sich beim weiteren Ausbau an die jeweils veränderten Anforderungen anzupassen. Ein weiterer Vorteil ist, dass die nötigen Investitionen schrittweise und in Abhängigkeit vom Bedarf erfolgen. Und dass gut ausgelastete Module in aller Regel deutlich energieeffizienter sind als ein schlecht ausgelastetes «monolithisches» Gross-Rechenzentrum.

Ein weiterer wichtiger Ansatz ist es, sich durch wenig aufwendige Vorrüstung auf mögliche Entwicklungen einzustellen. Zum Beispiel kann es eine gute Idee sein, unterhalb des Doppelbodens bereits die Anschlüsse für Kühlwasserleitungen vorzusehen, an die man später für höhere Leistungsdichten (nachrüstbare) Rücktür-Wärmeübertrager oder direkt gekühlte Server anschliessen kann.

Schröper: Der Markt bietet im Umfeld der Kälte- und Klimatechnik ein grösseres Lösungsspektrum als je zuvor. Nachhaltigkeit ist nicht mehr allein ein ökologischer oder ein Imageaspekt. Anders formuliert: Was wenig Energie verbraucht und wenig Abfall erzeugt, ist auch ökonomisch attraktiv. Modellrechnungen zeigen immer wieder, dass es an vielen Standorten an vielen Tagen des Jahres zum Beispiel möglich ist, freie Kühlung einzusetzen und auf mechanische Komponenten zu verzichten. Die Standardmethoden, wie etwa die strikte Trennung von kalter und warmer Luft durch Einhausungen, sind ja bekannt und werden eingehalten. Zusätzlich sollte der Planer jedoch durchaus einmal Fantasie beweisen und auch unkonventionelle Ansätze einbeziehen, die im individuellen Fall womöglich besonders effizient und damit auch finanziell attraktiv sind. Die Einstellung «Haben wir schon immer so gemacht» ist ein unbrauchbarer Berater. Schlussendlich zählen angesichts der Energiepreise heute immer die Betriebskosten und nicht so sehr die Erstinvestition.

1. IKT – Informationstechnik und Telekommunikation; laut BMWi gehört die IKT-Branche neben den Branchen Maschinenbau, Automobilindustrie und Elektrotechnik-/Elektronikindustrie zu den grössten Wirtschaftszweigen in Deutschland. Mit derzeit mehr als einer Million Beschäftigten und einem weltweiten Umsatz von 223 Milliarden Euro beträgt sein Anteil am weltweiten Markt für Informations- und Kommunikationstechnik rund 4,3 Prozent. Damit ist Deutschland nach den USA, China, Japan und Grossbritannien der fünftgrösste Ländermarkt weltweit und der bedeutendste Markt für IKT in Europa.

2. «Entwicklung des IKT-bedingten Strombedarfs in Deutschland»; Studie des Fraunhofer IZM, Berlin, in Zusammenarbeit mit dem Borderstep Institut; Abschlussbericht vom November 2015.

3. Angaben zu Bedingungen für Rechenzentren liefert ASHRAE mit den «Thermal Guidelines for Data Processing Environments».