Wohltemperierte Daten
Serverparks generieren Unmengen an Abwärme – Energie, die bislang zumeist ungenutzt entwich. Dabei könnten gerade Forschungseinrichtungen mehrfach profitieren, wenn digitale Infrastruktur und Klimatisierung gemeinsam gedacht würden. Die Lindner Group zeigt mit dem Cloud-Edge-Lösung BitHeat, wie dezentrale Rechenzentren künftig Übertragungsverluste minimieren und eine nachhaltige Wärme- und Energiegewinnung befördern können.
Der weltweite Datenverkehr wächst in einem Tempo, das herkömmliche Rechenzentren an ihre physischen Grenzen treibt – und sie damit als eigenständige Assetklasse in der Bau‑ und Immobilienbranche in den Fokus rückt.
Der weltweit größte Internetknoten, der DE‑CIX in Frankfurt am Main, verdeutlicht das tägliche Datenaufkommen in Deutschland: Mit einem Rekord‑Durchsatz von bis zu 25 Terabit pro Sekunde im Jahr 2025 hat sich der globale Datenaustausch seit 2020 verdoppelt; die übertragene Datenmenge entspricht einem DIN‑A4‑Papierstapel, der 20‑mal höher als der Mount Everest ist (Bitkom: Rechenzentren in Deutschland 2024). Frankfurt ist damit ein Paradebeispiel des Phänomens Data Gravity: Massive Datenmengen ziehen weitere Daten an und erhöhen den Bedarf an immer leistungsfähigeren Anbindungen. Das betrifft auch die Versorgungstechnik, wie zum Beispiel die Stromversorgung, um einen reibungslosen Betrieb sicherstellen zu können.
Wo Planung an Grenzen stößt
Der klassische Aufbau von Rechenzentren lässt sich in zwei klar abgegrenzte Bereiche gliedern. Der Whitespace bildet das Herzstück: Hier stehen die Server‑Racks, Speichersysteme und sämtliche IT‑Komponenten, die die digitale Verarbeitung übernehmen. Damit diese Technik zuverlässig betrieben werden kann, muss ein umfangreicher Greyspace bereitgestellt werden – er umfasst die unterbrechungsfreie Stromversorgung (USV‑Anlagen), Transformatoren, die Kühl‑ und Klimatisierungstechnik, Brandschutz‑ und Sicherheitssysteme sowie die Netzwerk‑Backbone.
Beide Zonen benötigen viel Platz, der nicht nur hohe Baukosten verursacht, sondern auch eine anspruchsvolle Planung von Tragwerken, Brandschutzkonzepten und Versorgungstechnik erfordert. Ein durchschnittliches Rechenzentrum beansprucht bereits rund 9 300 m²; die größten Hyperscaler sogar Flächen von bis zu 200 Hektar – ein Ausmaß, das in dicht besiedelten Ballungsräumen kaum noch verfügbar ist und zu erheblicher Flächenversiegelung führt. Die Konzentration in großen Rechenzentren erhöht zudem die Energie‑ und Datenverluste entlang der Übertragungswege und verlängert die Latenzzeiten – ein bedeutender Faktor für latenzkritische Anwendungen wie Industrie‑4.0‑Plattformen oder die autonome Mobilität, die wiederum neue Anforderungen an die Infrastruktur von Gewerbe‑ und Industrieimmobilien stellen.
Die Miniaturisierung von Prozessoren in Rechenzentren führt zu einer kontinuierlichen Erhöhung der Leistungsdichte pro Chip, wodurch moderne Halbleiter pro mm² immer mehr Abwärme erzeugen und somit auch jedes der immer dichter mit Chips bepackten Server Racks. Luftbasierte Kühlsysteme stoßen hier an ihre physikalischen Grenzen; die entstehende Wärme lässt sich mit reiner Luftkühlung nicht mehr effizient abführen. Flüssigkeitskühlungen gewinnen deshalb zunehmend an Bedeutung, weil sie die notwendige Wärmeabfuhr bei gleichzeitig geringem Platzverbrauch ermöglichen. Diese Entwicklung verschärft die baulichen Anforderungen an die großen Rechenzentren.
Technologie und Ökologie
Durch die steigende Digitalisierung steigt der Bedarf an Rechenkapazitäten massiv. 2024 lag die installierte Leistung bei 2 730 MW in Deutschland, so liegt der prognostizierte Wert 2039 bereits bei mehr als 4 800 MW. Der Anstieg macht Investitionen in energieeffiziente Technologien unverzichtbar, weshalb das Energieeffizienzgesetz (EnEfG) hierauf bereits früh reagiert hat. Rechenzentren sollen effizienter betrieben werden und trotz steigendem Rechenbedarf weniger CO2-Emissionen verursachen. So verlangt das Gesetz bis 2030 eine Power‑Usage‑Effectiveness (PUE) (das Verhältnis von Gesamtenergieverbrauch zum Verbrauch der IT-Gerätschaften) von höchstens 1,3 für Bestandsgebäude bis 2030, und ab 2026 bereits eine PUE von höchstens 1,2 für Neubauten. Gleichzeitig verpflichtet § 5 EnEfG die Unternehmen dazu, ungenutzte Abwärme zu vermeiden und, soweit zumutbar, für weitere Anwendungen nutzbar zu machen. Das bedeutet, dass die emittierte Abwärme aus den Rechenzentren künftig wiederverwendet werden muss. Für die Bau‑ und Immobilienbranche bedeutet das, dass Neubau‑ und Sanierungskonzepte künftig nicht mehr nur die reine Nutzfläche, sondern auch die Wärme‑ und Stromkreisläufe integrieren müssen – ein Aufwand, der sich amortisieren muss. Das EnEfG sieht vor, dass der Stromverbrauch ab 2027 bilanziell zu 100 Prozent durch erneuerbare Energien gedeckt werden muss, so dass die fossilen Quellen nicht weiter den CO2-Ausstoß erhöhen. ↓
Die gesetzlich geforderte Steigerung des Anteils erneuerbarer Energien und die konsequente Verbesserung der Energieeffizienz sind daher der Versuch, die ökologische Bilanz von Rechenzentren zu verbessern. Die Rückgewinnung von Abwärme – etwa für Quartiersheizungen, industrielle Prozesse oder Nahwärmenetze – bietet ein bislang wenig genutztes Potenzial, das aber hohe Investitionskosten in den entsprechenden Netzausbau verlangt. Die Finanzierung dieser Infrastruktur ist vielfach noch ungeklärt.
Digitale Souveränität
Neben der infrastrukturellen Ebene gibt es noch eine weitere Herausforderung bei der Datenhoheit. Der US‑Cloud Act verpflichtet alle Unternehmen mit Sitz in den USA – und deren ausländische Tochtergesellschaften – zur Herausgabe von gespeicherten Daten an US‑Behörden, unabhängig davon, ob die physischen Server in Europa, Asien oder einem anderen Drittstaat betrieben werden. Diese extraterritoriale Durchgriffsmöglichkeit steht in direktem Widerspruch zur europäischen Datenschutz‑Grundverordnung (DSGVO), die den Schutz personenbezogener Daten innerhalb des Europäischen Wirtschaftsraums (EWR) garantiert und den Datenexport nur unter streng definierten Bedingungen zulässt. Für europäische Unternehmen bedeutet das, dass sie trotz lokaler Hosting‑Strategien nicht sicher sein können, dass ihre Daten nicht von US‑Behörden eingesehen werden – ein Risiko, das die Einhaltung der DSGVO praktisch unmöglich macht und gleichzeitig das Vertrauen von Kunden und Partnern untergräbt.
Die Problematik wird durch die Fragmentierung der Cloud‑Infrastruktur noch verschärft. In Europa existieren zahlreiche Anbieter, die jeweils eigene, proprietäre Schnittstellen und Service‑Modelle nutzen. Ohne einheitliche technische Standards entstehen erhebliche Integrationskosten, weil Daten, Anwendungen und Workloads über unterschiedliche Plattformen hinweg migriert, synchronisiert oder gemeinsam betrieben werden müssen. Diese Heterogenität verhindert zudem die Interoperabilität – also die nahtlose Zusammenarbeit von Systemen unterschiedlicher Anbieter – und erhöht das Risiko von Vendor‑Lock‑in‑Szenarien, in denen Unternehmen langfristig an einen einzigen Anbieter gebunden sind und damit ihre strategische Flexibilität verlieren.
Der Weg zur europäischen Cloud
Vor diesem Hintergrund entwickelt das Important Project of Common European Interest – Cloud Infrastructure & Service (IPCEI‑CIS), das 2023 gestartet ist, unter dem Projektnamen 8ra
(https://www.8ra.com/) ein ganzheitliches Konzept, das die bislang getrennt behandelten Probleme von Rechenzentrums‑ und Cloud‑Architektur gleichzeitig löst.
Erstens wird die physische Infrastruktur dezentralisiert. Statt riesiger, monolithischer Anlagen, die in Ballungsräumen mehrere Hektar wertvollen Bodens versiegeln, entsteht ein Cloud‑Edge‑Kontinuum aus kleineren, geografisch verteilten Standorten. Diese Edge‑Rechenzentren benötigen nur einen Bruchteil der Fläche eines klassischen Hyperscalers, lassen sich in bereits vorhandenen Gebäuden integrieren und verkürzen die Datenwege zu den Konsumenten. Die Folge ist ein spürbarer Rückgang von Übertragungsverlusten und Latenzzeiten – ein direkter Nutzen für sämtliche Echtzeitanwendungen.
Zweitens wird die Cloud dezentralisiert. Durch die Verteilung von Rechen‑ und Speicher‑Kapazitäten auf rein europäischer Ebene wird die Abhängigkeit von US‑Anbietern reduziert und die digitale Souveränität gestärkt. Das Projekt hat zum Ziel, eine europäische, rechtlich abgesicherte Infrastruktur zu schaffen, damit extraterritoriale Zugriffsmöglichkeit beschränkt werden und Unternehmen die Gewissheit erhalten, dass ihre Daten nicht ohne Weiteres übermittelt werden können.
Cloud-Edge-System BitHeat
Die Lindner Group – vorranging bekannt für Innenausbau – ist unter dem Projektnamen BiGreen (Building Integrated GREen Edge cloud Native) Teil der 8ra Initiative. Innerhalb der Initiative wird für die Marke BitHeat die Produktentwicklung eines Cloud-Edge-Computing-Moduls vorangetrieben. Das Computing-Modul steht als Gegenmodell zu dem beschriebenen heute vorherrschenden zentralen Rechenzentrum und Cloudansatz. Es handelt sich um ein vollständig integriertes Edge‑Cloud‑Computing‑Modul, das Rechenleistung, Gebäudetechnik und IT‑Sicherheit in einem kompakten, modularen Baustein vereint.
Das Modul ist ein Plug‑&‑Play‑Modul (ca. 610 x 624 x 1 220 mm) mit sechs Server‑Steckplätzen, das bis zu einer Leistung von 3 kW skalierbar ist. Das Modul kann an jedem Ort installiert werden, an dem ein Anschluss an das vorhandene Heizsystem möglich ist – es entsteht somit keine zusätzliche Flächenversiegelung, weil das Modul auf bereits vorhandenen Flächen untergebracht wird.
Abwärme als Ressource
Der Strom für das Modul wird vorrangig aus vor Ort erzeugter erneuerbarer Energie gewonnen. Diese wird unmittelbar am Aufstellort „veredelt“: Sie liefert Rechenleistung und erzeugt gleichzeitig Wärme, die in einem geschlossenen Kreislauf nutzbar gemacht wird. Durch die dezentrale Erzeugung entfallen Transport‑ und Transformationsverluste, das öffentliche Stromnetz wird kaum belastet und die CO₂‑Bilanz verbessert sich deutlich.
Eine Besonderheit des Moduls ist, dass keine separate Kühleinheit, entspricht dem Greyspace in Rechenzentren, benötigt wird. Die Server sind in ein nicht‑leitendes Kühlöl eingetaucht (Immersionskühlung). Das Immersionsöl bleibt zu jedem Zeitpunkt im geschlossenen System; es wird nicht nach außen gepumpt, sodass keine zusätzlichen Kühlwasser‑ oder Kältemittelströme nötig sind. Dieses Verfahren kühlt leistungsfähige Chips wesentlich effizienter als herkömmliche Luftkühlung und durch das geschlossene System wird Staub‑ und Schmutzeintrag verhindert, was sich positiv auf die Lebensdauer der Hardware auswirkt. Somit kann von einer Lebensdauer von rd. 6-8 Jahren je IT-Hardware im Modul geplant werden.
Der Öl‑ und der Wasserkreislauf sind strikt voneinander getrennt. Über einen hocheffizienten Wärmetauscher wird die Wärme des Immersions-öls auf das Wasser übertragen. Das dadurch erwärmte Wasser erreicht Temperaturen von 55 bis 60 °C und lässt sich optimal sowohl für gebäuderelevante Anwendungen – Heizung und Warmwasserbereitung – als auch für nicht‑gebäuderelevante Zwecke, etwa industrielle Prozesswärme, nutzen. Auf diese Weise wird die bei der Datenverarbeitung entstehende Abwärme zu einer wertvollen Ressource, anstatt ungenutzt zu bleiben. Zudem erfüllt sie sämtliche Vorgaben des Energieeffizienzgesetzes.
Da das Modul nicht in klassischen Rechenzentren, sondern dezentral in Gebäuden betrieben wird, besitzt das Modul ein physisches Sicherheitssystem.
Die Integration in Bestandsbauten stellt dabei eine besondere Herausforderung dar: Mit einer maximalen Leistung von 3 kW pro Modul ist das System als ergänzendes Heizsystem konzipiert und muss deshalb mit gängigen Heiztechnologien wie Wärmepumpen, Fernwärme oder Gasheizungen kompatibel sein. Das Gebäude wird dabei primär vom BitHeat Modul mit Wärme versorgt, das bestehende Heizsystem übernimmt die Spitzenlast. Dieses smarte Konzept gewährleistet eine hohe Auslastung der Rechenkapazität.
Praxischeck vor Markteinführung
Vor dem geplanten Markteintritt im Jahr 2027 wurden im Rahmen eines umfassenden Proof‑of‑Concept‑Programms mehrere Pilotin-stallationen in Hotels sowie in modernen Bürogebäuden realisiert. Dabei stand vor allem die Kompatibilität der Module mit den unterschiedlichsten Heizsystemen im Fokus. Parallel dazu wurden ausführliche Stresstest‑Szenarien entwickelt, die reale Belastungen simulieren – von klassischen Dauerlasten bis hin zu rechenintensiven KI‑Workloads wie CPU‑basierten Large‑Language‑Models (LLM).
Der Prototyp ist für das erste Halbjahr 2026 in den CE‑Zertifizierungsprozess eingereicht und erfüllt damit die europäischen Sicherheit‑ und Umweltstandards. Damit ist das System bereit, im Jahr 2027 die Zielgruppe der kleinen und mittleren Unternehmen, Forschungseinrichtungen und Institute zu bedienen, die ihre eigene IT‑Infrastruktur betreiben und gleichzeitig von einer dezentralen, energieeffizienten Edge‑Computing‑Lösung profitieren wollen.
In dieser Anfangsphase des Produktlaunches ist der Aufstellort des Moduls identisch mit dem Unternehmen, das die Rechenkapazität nutzt – dadurch entsteht sofort ein geschlossener Kreislauf aus lokaler Energieerzeugung, Datenverarbeitung und Wärmerückgewinnung, und die volle Datenhoheit bleibt erhalten.
Potenziale für Gebäudetechnik und IT
Das Potenzial von BitHeat geht dabei weit über die Grundidee hinaus und wird von Lindner in verschiedenen Richtungen weitergeführt, so z. B. in eine Hochleistungs-GPU-Variante für den lokalen Betrieb leistungsfähiger KI-Anwendungen.
Parallel dazu entsteht eine leistungsstärkere Produktlinie, die die aktuelle Leistungsgrenze von 3 kW pro Modul überschreitet und dennoch kompakt genug bleibt, um in bestehende technische Gebäudeausrüstungen integriert zu werden. Ferner entwickelt Lindner BitHeat in Blick auf Industrie 4.0 und IoT-Anwendungen weiter.
Langfristig wird die Trennung von Aufstellort und Nutzer der Rechenleistung angestrebt. In einer späteren Entwicklungsstufe können Facility‑Manager, Quartiers‑Energieversorger oder spezialisierte Infrastructure‑as‑a‑Service‑Anbieter die Module an beliebigen, technisch geeigneten Standorten installieren und die bereitgestellte Rechenkapazität sowie die erzeugte Wärme als Dienstleistung an externe Unternehmen vermieten.
Um den Mehrwert für die Kernzielgruppe weiter zu erhöhen, wird ein Portfolio von Anwendungen entwickelt, die speziell auf deren Bedürfnisse zugeschnitten sind, z. B. Energiemanagement-Apps oder „digitale Zwillinge“.
Zusammengefasst entwickelt sich BitHeat von einer modularen Edge‑Cloud‑Lösung zu einer umfassenden Plattform, die GPU‑gestützte KI‑Leistung, höhere thermische Auskopplung, flexible Standort‑ und Nutzungsmodelle sowie branchenspezifische Anwendungen miteinander verknüpft. Damit stärkt das Projekt nicht nur die digitale Souveränität und die Energieeffizienz von Gebäuden, sondern eröffnet zugleich nachhaltige, neue Geschäftsmodelle für die Bau‑ und Immobilienbranche.
BiGreen wird gefördert vom Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestags. Finanziert von der Europäischen Union.
