Zum Inhalt springen
FM-Connect Chat

Hallo! Ich bin Ihr FM-Connect Chat-Assistent. Wie kann ich Ihnen helfen?

FM-Solutionmaker: Gemeinsam Facility Management neu denken

Dimensionierung der IT-Infrastuktur

Facility Management: IT-Infrastruktur » Strategie » Dimensionierung

Auslegung betrieblicher IT-Infrastruktur

Auslegung betrieblicher IT-Infrastruktur

Die digitale Transformation erfordert im Facility Management (FM) ein Umdenken bei der Planung und Bewirtschaftung der technischen Infrastruktur von Unternehmen und Liegenschaften. Moderne betriebliche IT-Infrastruktur bildet das „Nervensystem“ eines Betriebs – sie muss in vielfältigen Nutzungsszenarien von Büroumgebungen bis zur Industrieanlage zuverlässig funktionieren. Facility Management als ganzheitliche Managementdisziplin hat dabei die Aufgabe, Gebäude, technische Anlagen und Services so bereitzustellen, dass sie den Geschäftsprozessen optimal dienen. Dies schließt heute vermehrt die Planung und den Betrieb komplexer IT-Infrastrukturen mit ein. In allen Szenarien sind Zuverlässigkeit, Sicherheit, Performance und Anpassungsfähigkeit als Leitkriterien auszumachen. Unterschiede liegen in der Schwerpunktsetzung: Während in Büroumgebungen Flexibilität und Benutzerfreundlichkeit dominieren, erfordern Produktions- und Lagerumgebungen extrem hohe Echtzeit- und Verfügbarkeitsgarantien. Smart Buildings verbinden wiederum Ziele der Energieeffizienz mit hohem Integrationsgrad von Sensorik, was neue Datenmanagement-Herausforderungen schafft. Facility Management erweist sich als Schlüsseldisziplin, die diese Anforderungen moderieren und infrastrukturelle Lösungen bereitstellen muss, indem sie technisches Know-how (IT, TGA) mit Managementkompetenz vereint.

Erfolgreiche Auslegung betrieblicher IT-Infrastruktur erfordert interdisziplinäres Denken. Technik, Mensch und Organisation müssen zusammenkommen. Die einzige Konstante ist der Wandel – eine gute Infrastruktur ist jene, die den Wandel nicht nur aushält, sondern ihn unterstützt. Mit robusten Dimensionierungsprinzipien, Weitsicht und Lernbereitschaft kann Facility Management hier einen entscheidenden Beitrag leisten, die digitale Zukunft unserer Arbeits- und Produktionswelten sicher und effizient zu gestalten.

Theoretischer Rahmen und Begriffsbestimmungen

Rahmen und Begriffsbestimmungen

Im Sinne eines gemeinsamen Verständnisses werden zunächst zentrale Begriffe und Rahmenbedingungen geklärt. IT-Infrastruktur umfasst sämtliche technischen Systeme zur Informationsverarbeitung und Kommunikation in einem Unternehmen. Dazu zählen Hardware (Server, Speicher, Netzwerkkomponenten), Software-Plattformen, Übertragungsnetze (LAN, WAN, WLAN, 5G etc.), Rechenzentrums- und Edge-Installationen sowie unterstützende Anlagen (z.B. USV, Kühlung). Dimensionierung bedeutet hier die sachgerechte Auslegung und Kapazitätsplanung dieser IT-Infrastruktur: also die Entscheidung über Art und Menge von Ressourcen und deren architektonische Gestaltung, um gegebene Anforderungen zu erfüllen und zukünftiges Wachstum zu ermöglichen.

Wesentlich ist die Unterscheidung zwischen IT und OT. Information Technology (IT) bezeichnet die klassischen Datenverarbeitungssysteme (Bürorechner, Server, Business-Anwendungen), während Operational Technology (OT) die technischen Systeme zur Steuerung und Überwachung physischer Prozesse meint (z.B. industrielle Steuerungen, Gebäudetechnik). In modernen Betrieben wächst IT und OT immer stärker zusammen – IT/OT-Konvergenz – was neue Chancen, aber auch Herausforderungen etwa in der Sicherheit mit sich bringt. Die Auslegung der Infrastruktur muss daher ganzheitlich erfolgen und sowohl die Anforderungen der digitalen Office-Welt als auch der industriellen Produktion berücksichtigen.

Zu beachten ist außerdem der räumlich-physische Kontext der IT-Infrastruktur. Facility Management sorgt dafür, dass die baulichen und technischen Anlagen bereitstehen, in denen IT sicher betrieben werden kann. Dies umfasst beispielsweise Rechenzentren oder Serverräume mit adäquater Klimatisierung, Stromversorgung, Brandschutz, Zugangskontrolle und Umweltüberwachung. Normen wie die DIN EN 50600 (Rechenzentrumsbau) geben hierzu Richtlinien für Planung und Betrieb solcher IT-Standorte. Gleichzeitig muss die Anbindung verteilter Standorte (z.B. Fabrikhallen, Büroetagen, Lager) über Daten- und Versorgungsleitungen geplant werden, wofür es etwa Standards zur strukturierten Gebäudeverkabelung (DIN EN 50173, ISO/IEC 11801) gibt.

Normen und Standards bilden einen wichtigen theoretischen Rahmen: Sie liefern bewährte Definitionen, Qualitätskriterien und Best Practices. Im Bereich Facility Management existiert z.B. die ISO 41000-Normenfamilie, welche Begriffe und Prozesse im FM vereinheitlichen. Im IT-Bereich seien exemplarisch ISO/IEC 27001 (Informationssicherheits-Management) und der BSI IT-Grundschutz genannt, welche Anforderungen an Schutzniveau und Vorgehensweisen in der IT-Sicherheit definieren und somit auch Einfluss auf die Infrastrukturplanung haben (z.B. durch Vorgaben zu Netzwerksegmentierung, Redundanzen, Backup, Zugriffsmanagement etc.). Solche Normen und Standards fließen in den folgenden Kapiteln jeweils kontextbezogen ein und sind im Anhang zusammengefasst.

Allgemeine Dimensionierungskriterien der IT-Infrastruktur

  • Leistung und Performance: Die Infrastruktur muss ausreichend Rechenleistung, Datendurchsatz und geringe Latenz bereitstellen, um die benötigten Anwendungen performant zu betreiben. In Büroanwendungen steht etwa die Netzwerk-Bandbreite pro Arbeitsplatz und die Server-Kapazität für Dienste (File, Mail, Cloud) im Vordergrund, während in Industrie 4.0 eine Echtzeit-Datenverarbeitung unabdingbar ist. Echtzeitanforderungen treten z.B. bei der Steuerung von Maschinen oder bei IoT-Sensorstreams auf, die quasi verzögerungsfrei verarbeitet werden müssen.

  • Verfügbarkeit und Ausfallsicherheit: Da viele Geschäftsprozesse unterbrechungsfrei IT-Unterstützung benötigen, ist eine hohe Verfügbarkeit der Systeme essentiell. Dies wird durch redundante Auslegung (Hardware-Redundanzen, Cluster, Backup-Leitungen etc.) und Konzepte wie Failover und Notfallwiederherstellung erreicht. In sensiblen Bereichen (z.B. Produktionssteuerung, Lagerautomation) kann sogar eine hochverfügbare Architektur mit georedundanten Rechenzentren oder Edge-Computing-Knoten nötig sein. Ausfallsicherheit bedeutet darüber hinaus, dass einzelne Komponentenausfälle nicht zum Gesamtausfall führen – Redundanzen bis auf die Maschinenebene sorgen dafür, dass der Betrieb weiterläuft. Normen wie ISO 22301 (Business Continuity Management) oder BSI-Standards zum Notfallmanagement beschreiben Vorgehensweisen, um dies zu gewährleisten.

  • Skalierbarkeit und Flexibilität: Eine gute Dimensionierung plant Wachstumsspielräume mit ein. Systeme sollten skalierbar sein (horizontal durch zusätzliche Server/Knoten oder vertikal durch Aufrüstung) und ein Pay-as-you-grow-Modell ermöglichen. Beispielsweise kann in einem Büro zuerst ein bestimmter WLAN-Access-Point pro Anzahl Mitarbeiter ausreichend sein – wächst die Belegschaft, muss die WLAN-Infrastruktur modular erweiterbar sein. In Industrieumgebungen ist oft ein modulares Konzept gefragt, bei dem neue Maschinen/IoT-Geräte unkompliziert ins bestehende Netzwerk integriert werden können. Cloud-Architekturen spielen hier eine Rolle: Durch cloudbasierte Dienste kann man kurzfristig Kapazitäten erhöhen oder verringern, was hohe Flexibilität bietet. Auch hybride Ansätze (Kombination aus lokaler Infrastruktur und Cloud) sind Teil moderner Dimensionierung, z.B. um Datenverarbeitung zwischen Edge und Cloud zu verteilen – selten veränderte Daten in die Cloud, echtzeitkritische Daten lokal – um Kommunikationsengpässe zu vermeiden.

  • Sicherheit (Cybersecurity und physische Sicherheit): Security by Design ist heute ein Muss. Die Infrastruktur muss so ausgelegt sein, dass Vertraulichkeit, Integrität und Verfügbarkeit der Daten gewährleistet sind. Das umfasst technische Maßnahmen (Firewalls, Verschlüsselung, Intrusion Detection, Netzwerksegmentierung) und organisatorische Maßnahmen (Berechtigungskonzepte, Überwachung). In allen Szenarien ist auf aktuelle Bedrohungen – etwa Ransomware – zu reagieren. Der BSI IT-Grundschutz liefert einen systematischen Ansatz zur Absicherung und ist mit ISO 27001 kompatibel. Ergänzend gelten branchenspezifische Standards: z.B. IEC 62443 für industrielle Steuerungs- und Automatisierungssysteme (OT-Sicherheit) oder das BSI-Kritis-Regelwerk für kritische Infrastrukturen. Auch physische Sicherheit wie Zutrittskontrolle zum Serverraum, Brandschutz und Klimarisiken (Überhitzung, Feuchtigkeit) gehören dazu.

  • Interoperabilität und Standards: Eine Infrastruktur entfaltet nur dann vollen Nutzen, wenn ihre Komponenten kompatibel sind und Standard-Schnittstellen nutzen. Daher ist die Einhaltung einschlägiger Protokollstandards (z.B. TCP/IP, OPC UA in der Industrie, BACnet in der Gebäudeautomation) ein Kriterium. In der Fabrikautomation etwa müssen IT-Systeme mit SPS-Steuerungen über industrielle Schnittstellen kommunizieren können. Industrielle Protokolle und Schnittstellen (z.B. Profinet, MQTT, REST APIs) sollten bei der Planung berücksichtigt werden, um Insellösungen zu vermeiden. Standardisierungsgremien (DIN, ISO, VDI) arbeiten hier an Referenzarchitekturen – z.B. das Referenzarchitekturmodell Industrie 4.0 (RAMI 4.0) als Schichtenmodell, oder IEC 62264 für die Integration von Unternehmens- und Steuerungsebene.

  • Funktionalität und Anwendungsanforderungen: Die Infrastruktur muss natürlich die benötigten Funktionen bereitstellen. Dazu gehört z.B. in Büro und Verwaltung die Unterstützung von Kollaborations-Tools, Videokonferenzen, Office-Software – im Produktionsumfeld die Fähigkeit, Maschinen zu steuern, Sensordaten aufzunehmen, Big-Data-Analysen zuzulassen. Neue Technologien wie Cyber-Physical Systems, Big Data/Analytics, KI müssen gegebenenfalls berücksichtigt werden und spezielle Anforderungen mitbringen (etwa hohe Speicher- und Rechenanforderungen für KI-Anwendungen). Investitionszyklen spielen hier hinein: Die Produktlebenszyklen in der Industrie werden kürzer, was die IT-Infrastruktur vor die Herausforderung stellt, rasch neue Anwendungen (z.B. ein MES-System-Update oder neue IoT-Plattform) integrieren zu können. Planung muss daher agil und zukunftsorientiert erfolgen.

  • Kosten und Nachhaltigkeit: Nicht zuletzt sind Wirtschaftlichkeit und Nachhaltigkeit wichtige Dimensionen. Eine Überdimensionierung kann unnötige Kosten verursachen, eine Unterdimensionierung dagegen zu Ausfällen und Ineffizienzen. Es gilt also, das optimale Kosten-Nutzen-Verhältnis zu finden. Total Cost of Ownership (TCO) Betrachtungen fließen in die Planung ein. Energieeffizienz ist ein wachsendes Kriterium: Rechenzentren sollen energieoptimiert betrieben werden (Stichwort PUE-Wert), Hardware sollte stromsparend sein, Abwärme eventuell genutzt werden. Im New-Work-Kontext wird zudem auf den CO₂-Fußabdruck der IT geschaut – etwa verursacht durch hohe Netzwerk- und Cloud-Nutzung. Ein nachhaltiges IT-Design zielt darauf ab, Ressourcen zu schonen (z.B. durch Serverkonsolidierung, Virtualisierung, längere Hardware-Nutzungsdauer) und gleichzeitig Entsorgung/Recycling von Altgeräten zu berücksichtigen.

Diese allgemeinen Kriterien geben ein Raster vor, das in den folgenden spezifischen Szenarien jeweils konkret ausgeprägt wird. Während alle Kriterien in jedem Szenario Relevanz besitzen, variiert ihre Gewichtung: So steht z.B. in der Produktion die Echtzeitfähigkeit und Ausfallsicherheit an allererster Stelle, wohingegen im Büroumfeld Flexibilität und Datenschutz stärker betont werden. Im nächsten Kapitel werden die unterschiedlichen Nutzungsszenarien einzeln analysiert und ihre besonderen Anforderungen beschrieben. Dabei wird jeweils aufgezeigt, wie obige Dimensionierungskriterien dort umgesetzt werden und welche Normen/Vorschriften zu beachten sind.

Büroarbeitsplätze und New Work

  • Die Arbeitswelt im Büro befindet sich im Wandel: New Work steht für flexible Arbeitsmodelle, mobiles Arbeiten, flache Hierarchien und eine intensive Nutzung digitaler Tools. Dieser Trend hat nicht zuletzt durch die COVID-19-Pandemie einen starken Schub erfahren – von einem Tag auf den anderen wechselten Millionen Beschäftigte ins Homeoffice, und viele möchten das beibehalten. Aktuell arbeitet rund die Hälfte aller Erwerbstätigen in Deutschland zumindest teilweise mobil oder im Homeoffice. Diese Entwicklung stellt hohe Anforderungen an die IT-Infrastruktur der Unternehmen.

  • Für Büroarbeitsplätze bedeutet Dimensionierung heute vor allem: Vernetzung und Mobilität. Ein Großteil der Belegschaft will von verschiedenen Orten aus arbeiten und dennoch produktiv zusammenwirken. Cloud-Dienste, VPN-Zugänge, Videokonferenz-Systeme, Collaboration-Tools wie Office 365 oder Google Workspace sind integraler Bestandteil moderner Büros. Damit ein verteiltes Team effizient arbeiten kann, muss die IT-Infrastruktur stabile, breitbandige Konnektivität bieten – sowohl im Bürogebäude (WLAN, LAN) als auch nach außen (Internet, Remote-Zugang). Laut einer aktuellen Einschätzung erfordert vernetztes, cloudbasiertes Arbeiten sehr hohe Anforderungen an die IT-Infrastruktur, verbunden mit erheblichen Anfangsinvestitionen. Dazu kommen hohe Anforderungen an den Datenschutz und die Security, da sensible Unternehmensdaten nun über Cloud und Heimnetzwerke fließen. Unternehmen müssen Richtlinien (z.B. zur Nutzung privater Geräte, VPN-Pflicht, Verschlüsselung) anpassen und mitarbeiterfreundlich gestalten.

  • Ein weiteres Merkmal von „New Work“ ist die Flexibilität der Arbeitsumgebung. Moderne Büros setzen auf Shared Desk Konzepte, Coworking-Zonen, spontane Teamflächen und Rückzugsräume. Für die IT bedeutet das: WLAN statt rein verkabelter Anschlüsse, flächendeckende Netzabdeckung, hohe Dichte an Access Points (gerade bei vielen mobilen Mitarbeitern und IoT-Geräten im Gebäude). Smart Office-Technologien halten Einzug, wie z.B. Sensoren zur Raumbelegung, digitale Buchungssysteme für Räume/Schreibtische und IoT-unterstützte Dienste (intelligente Beleuchtung, Klima). So installierte etwa das bekannte Smart Office „The Edge“ in Amsterdam ca. 28.000 Sensoren im Gebäude, um Beleuchtung, Klima und Raumnutzung in Echtzeit zu optimieren. In deutschen Projekten wie dem Cube Berlin wurden zwar weniger Sensoren verbaut, aber ebenfalls ein integrales digitales Konzept umgesetzt (siehe Abschnitt Smart Buildings).

  • Ein zentrales Dimensionierungskriterium im Büro ist auch die Benutzererfahrung: Technische Infrastruktur muss den Mitarbeitenden ermöglichen, nahtlos zwischen Homeoffice und Büro zu wechseln. So fordert New Work, dass das Homeoffice vollständig in die IT-Landschaft integriert ist, sodass Mitarbeiter mühelos zwischen mobilem Arbeitsplatz und Büro wechseln können. Tools für virtuelle Zusammenarbeit (Chat, Projektplattformen, Wikis) müssen zuverlässig funktionieren, ohne Medienbrüche. Dies führt zur Anforderung, Standardisierung der Tools zu betreiben – jede Anwendung möglichst einheitlich einzuführen, um Digital Overload zu vermeiden.

  • Datenschutzrechtlich (Stichwort DSGVO) müssen Zugriffe und Datenflüsse reguliert sein – z.B. darf nicht jeder Cloud-Dienst ohne Prüfung genutzt werden. Die IT-Grundschutz-Kataloge des BSI enthalten konkretisierte Anforderungen für Clients im Homeoffice, Teleworking und mobile Geräte, die dabei helfen, den Stand der Technik einzuhalten. Rechtlich relevant sind hier u.a. die Vorgaben der DSGVO, das Bundesdatenschutzgesetz (BDSG) sowie arbeitsrechtliche Regelungen (z.B. Mitbestimmung des Betriebsrats bei IT-Überwachung).

  • Nicht zu vernachlässigen ist ferner der physische Arbeitsplatz: Obwohl New Work viel Digitales beinhaltet, braucht es ergonomische Hardware (Bildschirme, Docking-Stations) und entsprechende Infrastruktur (z.B. ausreichend Lade- und Anschlussmöglichkeiten, Videokonferenzräume mit hoher Netzpriorität). Arbeitsstättenrichtlinien fordern z.B., dass Bildschirmarbeitsplätze gewissen ergonomischen Anforderungen genügen (Beleuchtung, Entspiegelung). Das Facility Management muss hier mit IT-Abteilungen kooperieren, um sowohl Gebäude- als auch IT-Aspekte zu erfüllen – etwa bei Raum-in-Raum-Lösungen für Videocalls (akustische Dämpfung, WLAN-Abdeckung).

  • Im Büro- und New-Work-Kontext liegt der Fokus der IT-Infrastruktur-Dimensionierung auf Flexibilität, Kollaboration und Sicherheit. Eine belastbare Netzwerkinfrastruktur – möglichst ausfallsicher und skalierbar – bildet die Basis. Cloud-Kapazitäten werden so bemessen, dass Lastspitzen (z.B. viele gleichzeitige Video-Meetings) bewältigt werden. Gleichzeitig achtet man auf Benutzerfreundlichkeit und produktive Arbeitsumgebungen. Die Digitalisierung im Büro wird zunehmend als Chance begriffen, und ein modernes Unternehmen positioniert seine IT-Infrastruktur als Enabler für neue Arbeitsformen, um attraktiv und wettbewerbsfähig zu bleiben.

Industrie 4.0 – Vernetzte Produktion und digitale Fabrik

Industrie 4.0 bezeichnet die vierte industrielle Revolution, geprägt durch die umfassende Digitalisierung der Fertigung. In einer Industrie 4.0-Umgebung kommunizieren Maschinen, Produkte und Systeme intelligent miteinander, um hochflexibel bis zur Losgröße 1 produzieren zu können. Eine solche Smart Factory stellt herausfordernde Ansprüche an die IT-Infrastruktur: Echtzeitfähigkeit, Robustheit, Interoperabilität und Skalierbarkeit sind hier besonders ausgeprägt gefordert.

In der klassischen Fabrikautomation wurden Anlagen oft hierarchisch in der Automatisierungspyramide vernetzt – von der Feldebene (Sensoren/Aktoren) über Steuerungen (SPS), Leitsysteme (MES) bis zur ERP-Ebene, definiert u.a. durch die Norm IEC 62264. Industrie 4.0 löst diese starren Schichten zunehmend auf zugunsten einer horizontalen Vernetzung und Peer-to-Peer-Kommunikation zwischen Geräten. Dadurch entstehen jedoch immense Datenströme, die gehandhabt werden müssen. Echtzeit-Datenverarbeitung bedeutet hier z.B., dass Sensorwerte innerhalb von Millisekunden von einer Steuerung erfasst, verarbeitet und an Aktoren zurückgemeldet werden (Betrieb in harter Echtzeit für Motion Control). Herkömmliche IT-Netzwerke (Ethernet TCP/IP) stoßen da an Grenzen – folglich kommen Industrial Ethernet (mit Deterministic Extensions, z.B. PROFINET IRT, EtherCAT) oder Feldbusse zum Einsatz, deren Anforderungen in Normen (IEC 61784, IEC 61158) festgelegt sind.

Ein zentrales Konzept im Industrie 4.0-Kontext ist der Digitale Zwilling. Dabei handelt es sich um ein virtuelles Abbild eines physischen Assets (Maschine, Produkt, System), das den aktuellen Zustand und alle relevanten Daten dieses Assets repräsentiert. Digitale Zwillinge ermöglichen schichtenübergreifende Kommunikation und Optimierung, indem sie Daten aus der Produktion aggregieren, Analysen (z.B. Predictive Maintenance) erlauben und Steuerungsbefehle zurückspeisen. Für die IT-Infrastruktur bedeutet dies, dass Verteilte Datenhaltung und Hybride Cloud-Edge-Architektur umgesetzt werden müssen: Nicht alle Daten können zentral in der Cloud gehalten werden, weil dies bei häufig aktualisierten Daten enorme Bandbreite erfordern und die Kommunikation überlasten würde. Stattdessen empfiehlt sich ein hybrider Ansatz, bei dem statische oder langsam änderliche Daten in der Cloud liegen, während hochfrequente Daten lokal an der Edge verbleiben – was jedoch geeignete Infrastruktur für diese verteilten Zwillinge voraussetzt. Die Dimensionierung muss also Cloud-Services und Edge-Nodes in ein sinnvolles Verhältnis setzen (Stichwort Edge Computing: lokale Micro-Rechenzentren direkt in Produktionsstätten, oft mit Echtzeitfähigkeiten, nahe an den Maschinen).

Ein weiteres wesentliches Kriterium in Industrie 4.0 ist die Verfügbarkeit und Fehlertoleranz. Produktionsanlagen laufen häufig 24/7, Ausfälle können teure Stillstandszeiten bedeuten. Deshalb werden IT-Systeme redundant ausgelegt: Server im Cluster, duale Netzwerkinfrastruktur, mehrere Industrial Ethernet Ringe, eventuell sogar lokale Backups der Cloud-Funktionen (damit bei Internet-Ausfall die Fertigung autark weiterläuft). Ausfallsicherheit muss bis auf Maschinenebene gedacht werden – z.B. redundant arbeitende SPS-Steuerungen oder ausfallsichere Feldbusse. Hier kommen Normen wie IEC 61508 / ISO 13849 (Funktionale Sicherheit) ins Spiel, wenn IT-Ausfall auch Sicherheitsrisiken birgt. Für kritische Branchen (Chemie, Pharma etc.) können Vorgaben existieren, bestimmte Automationssysteme in hochverfügbaren Paaren zu betreiben.

Netzwerkarchitektur: In einer Smart Factory finden wir typischerweise eine Mischung aus IT- und OT-Netzen. IT-Netze (Büro, Datenzentren) sind mit OT-Netzen (Fertigungshallen, Maschinenbusse) über Gateways oder industrielle Firewall/Router verbunden. Die Dimensionierung hier betrifft Anzahl der Knoten (teils können es Hunderte von Maschinen-Controllern, Sensor-Gateways, Kameras etc. sein) und das Traffic-Aufkommen. Immer häufiger werden Industrial Wireless Lösungen eingesetzt – z.B. für fahrerlose Transportsysteme oder flexible Roboter. Mit Aufkommen von 5G Campus-Netzwerken bietet sich eine neue Infrastrukturkomponente: Private 5G-Netze erlauben hohe Gerätedichten, ultraniedrige Latenzen (URLLC) und zuverlässige Kommunikation. Solche 5G-Netze werden bereits in Logistik und industrieller Echtzeitsteuerung pilotiert. Die Planung eines 5G-Campusnetzes erfordert u.a. Spektrumslizenzen, Funkfeldplanung und Integration ins LAN – was neue Dimensionierungsentscheidungen (z.B. Anzahl und Position der 5G Antennen, Core-Netz-Kapazität) mit sich bringt.

Interoperabilität und Standards spielen im Industrie-4.0-Kosmos eine besondere Rolle. Der gegenseitige Datenaustausch zwischen Maschinen verschiedener Hersteller soll durch Standards wie OPC UA (IEC 62541) ermöglicht werden. OPC UA gilt als Enabler für Industrie 4.0, da es herstellerunabhängig Maschinendaten semantisch beschreibt. Die IT-Infrastruktur muss ggf. OPC-UA-Server bereitstellen und genügend Rechenleistung für die Konvertierung der Daten aufbringen. Ebenso wichtig sind Cyber-physische Schnittstellen – etwa RFID-Sensoren und KI-Kameras, die Objekte erkennen und an IT-Systeme melden (z.B. für Track&Trace). All dies erhöht die Komplexität.

Ein kritischer Punkt ist die IT-Sicherheit in industriellen Netzen. Produktionsanlagen wurden in der Vergangenheit oft als isoliert betrachtet („Air Gap“), doch mit Industrie 4.0 sind sie vernetzt und somit Angriffen ausgesetzt. IT-Grundschutz- und ISO 27001-Konzepte müssen auf OT ausgeweitet werden. Der BSI führt hierfür spezielle Bausteine für industrielle Automatisierung in seinem Kompendium. Ergänzend existieren Brancheninitiativen und VDI-Richtlinien (z.B. VDI/VDE 2182 zur industriellen IT-Security), die konkrete Maßnahmen empfehlen. Eine besondere Herausforderung ist die Langzeitnutzung von OT-Geräten: Maschinen haben Lebenszyklen von 15-20 Jahren oder mehr, während IT-Komponenten viel kürzerlebig sind. Die Dimensionierung muss also auch Migrationspfade und Kompatibilitätsschichten (z.B. Protokollkonverter für alte Anlagen) berücksichtigen, um Brownfield-Anlagen einzubinden.

Pilotanlagen, Testbeds (z.B. 5G Industry Campus) erproben neue Technologien. Die Kernanforderungen in Industrie 4.0 – Performance, Verfügbarkeit, Sicherheit, Skalierbarkeit – decken sich im Grunde mit jenen der klassischen IT, müssen aber oft in extremerem Maßstab und unter härteren Umweltbedingungen (Hitze, Staub in Fabrikhalle) realisiert werden.

Automatisierte Hochregallager mit FTS/AGVs

In der Logistik haben automatisierte Lagersysteme eine rasante Verbreitung gefunden. Hochregallager, oft über 20 Meter hoch, werden heute vielfach von Regalbediengeräten und Fahrerlosen Transportsystemen (FTS) bedient, statt von Gabelstaplern mit Fahrern. Auch mobile Autonome Mobile Robots (AMR) sind im Einsatz, um Paletten oder Behälter zu transportieren. Dieses Szenario stellt besondere Anforderungen an die IT-Infrastruktur im Lager und die Anbindung ans Unternehmensnetz.

Ein zentrales Element ist die drahtlose Kommunikation. FTS/AGV bewegen sich frei im Lager, daher ist ein flächendeckendes und stabiles WLAN (oder ggf. 5G-Funk) unverzichtbar. Planungskriterium ist hier die Funkabdeckung in jedem Regalgang, inklusive Überlappungen für Roaming der Fahrzeuge. Stabilität und Reichweite des WLAN-Signals stehen laut Experten an erster Stelle. Bereits bei der Lagerplanung muss daher die IT-Infrastruktur mitgedacht werden: Wo kommen Access Points hin? Sind Antennen durch Metallregale abgeschirmt? Werden ggf. spezielle Frequenzen (z.B. 5 GHz vs 2.4 GHz) benötigt? Moderne Anlagen ziehen auch den Einsatz von privaten 5G-Netzen in Betracht, um Latenz und Verfügbarkeit weiter zu verbessern – insbesondere bei sehr vielen gleichzeitig kommunizierenden Geräten.

Neben dem Funknetz müssen Leitsysteme dimensioniert werden. Ein automatisiertes Lager hat typischerweise ein Lagerverwaltungssystem (LVS/WMS) und eine FTS-Leitsteuerung, die die Fahrzeuge koordiniert. Diese Software benötigt Serverkapazitäten, Schnittstellen zum ERP oder Produktionssystem und muss echtzeitnah arbeiten (Wegeoptimierung, Kollisionsvermeidung in Sekundenbruchteilen). Die IT-Infrastruktur muss also genügend Serverleistung und Datenbankperformance bereitstellen, um z.B. jede Sekunde Standortdaten von Dutzenden AGVs zu verarbeiten. In hochdynamischen Lagern – etwa bei Amazon oder großen Versandhändlern – können Hunderte von Robotern parallel operieren. Amazon etwa berichtet, dass weltweit inzwischen über eine Million Roboter in den Logistikzentren im Einsatz sind, bei rund 1,56 Mio. menschlichen Beschäftigten. Rund 75 % aller Amazon-Pakete werden bereits durch Roboterunterstützung bewegt – eine beeindruckende Skalierung, die ohne robusteste IT-Systeme nicht möglich wäre. Solche Zahlen verdeutlichen, dass die Infrastruktur nicht nur ein paar Fahrzeuge, sondern im Extremfall Tausende Geräte verwalten können muss.

Integration in die IT-Landschaft: FTS und Lagerautomation agieren nicht isoliert, sondern sind Teil der vernetzten Intralogistik und des Unternehmens-IT-Ökosystems. Entsprechend gilt: FTS müssen nahtlos in die bestehende IT-Landschaft eingebunden werden. Praktisch heißt das, das Lagerverwaltungssystem und die FTS-Steuerung müssen Schnittstellen zum zentralen ERP/MES haben, um Aufträge (Transportaufträge, Einlagerungen) zu erhalten und zurückzumelden. Die Systeminterfaces sind ein wichtiges Dimensionierungsfeld: Verwende ich Standard-Schnittstellen (z.B. OPC UA, oder spezifische WMS-Standards) oder proprietäre? Oft bieten Hersteller von Lagertechnik eigene Software an; hier muss die IT-Abteilung früh eingebunden sein, um Schnittstellen für Lagerausstattung und Enterprise-Systeme sauber zu definieren. In der Planungspraxis empfiehlt sich dafür frühzeitig eine bereichsübergreifende Abstimmung (IT, Logistik, FM), da eventuell Anpassungen nötig sind (z.B. ein separates Lager-Netzwerksegment mit definierten Gateways).

Echtzeit und Sicherheit: Ein automatisiertes Hochregallager stellt auch sicherheitstechnisch hohe Anforderungen. Zum einen dürfen Echtzeit-Steuerungen nicht durch IT-Latenz verzögert werden – wenn etwa zwei FTS aufeinander zufahren, muss das Leitsystem sofort eingreifen. Daher kann es notwendig sein, Edge-Server direkt im Lager zu installieren, um die Reaktionszeiten zu gewährleisten (vergleichbar zu Industrie 4.0 Edge-Computing). Zum anderen sind Personen- und Anlagensicherheit zu beachten: FTS bewegen sich in Bereichen, wo ggf. auch Menschen arbeiten. Es gibt VDI-Richtlinien wie den VDI-Statusreport "FTS – Leitfaden Sicherheit" sowie VDI 2510 Blatt 2, die sicherheitstechnische Anforderungen für Hersteller und Betreiber von FTS zusammenfassen. So müssen FTS mit Sensoren ausgestattet sein, die Hindernisse erkennen, Warnsignale geben etc. Für die IT-Infrastruktur bedeutet dies u.a. Überwachungssysteme (wer befindet sich wo im Lager, ggf. Personentracking mit Badges), und Notfallmechanismen: z.B. eine Not-Stopp-Funktion über Funk, die alle Fahrzeuge anhält. Diese Systeme müssen höchst zuverlässig sein – oft werden dafür dedizierte Frequenzen oder separate Netzwerke eingesetzt, damit ein Ausfall im Office-LAN nicht die Sicherheitssteuerung der FTS lahmlegt.

Umgebungsbedingungen in Lagerhallen stellen spezielle Anforderungen: Große Temperaturschwankungen (unklimatisierte Lager), Staubbelastung, Funkschatten hinter Regalen, Fahrstühle zur Verbindung von Ebenen etc. Die IT-Hardware (Access Points, Switches in Verteilerkästen) muss industriegeeignet sein. Die Beschaffenheit des Bodens und Hindernisse wie Stahlträger können Einfluss auf Funk und Fahrzeugnavigation haben. Deshalb fließen diese Faktoren in die Auslegung mit ein – etwa indem in schwierigen Bereichen zusätzliche Sensoren oder Leitlinien installiert werden (Optische oder Induktive Spurführung für FTS, falls rein freie Navigation zu unsicher ist).

Auch die Energieversorgung spielt eine Rolle: FTS müssen geladen werden, oft automatisiert via Ladestationen. Die Positionierung und Anzahl dieser Ladestationen beeinflusst die Routenplanung der Fahrzeuge – und benötigt Anschluss ans Stromnetz. IT-seitig sollte man überwachen, wann Fahrzeuge laden (ggf. Lastmanagement, damit nicht alle gleichzeitig laden und Peak erzeugen). Moderne Flottenmanagement-Software optimiert das automatisch, aber die Infrastruktur (Stromversorgungskapazität, Steckdosenplätze) muss entsprechend dimensioniert werden.

Empirische Erfahrungen zeigen, dass eine sorgfältige FTS-Planung mit Betrachtung aller Faktoren (Technik, Logistik, IT, Sicherheit) erfolgsentscheidend ist. Häufige Fragen – Wie wichtig ist die IT-Infrastruktur bei der Integration von FTS? – werden von Praktikern klar beantwortet: Ein stabiles WLAN, ein angebundenes Lagerverwaltungssystem und eine passende Schnittstelle sind unverzichtbar für einen reibungslosen Betrieb. Daher sollte die IT früh in jedes Automatisierungsprojekt einbezogen werden. Aus FM-Sicht bedeutet dies, dass bereits bei Bau/Ausstattung eines Lagers ausreichend Technikflächen (Serverraum für Lager-IT, Verkabelungskanäle, AP-Halterungen etc.) vorgesehen werden. Normativ gibt es für Lager selbst diverse Vorschriften (Brandschutz, DIN EN 15620 für Regalbau-Toleranzen, FEM-Richtlinien für Regalbediengeräte), die indirekt auch IT beeinflussen – z.B. Brandschutzvorgaben könnten erfordern, dass IT-Komponenten in bestimmten Schränken mit Feuerlöscheinrichtung (CO₂-Löschung) untergebracht werden.

Es erfordert ein automatisiertes Hochregallager eine hochverfügbare, echtzeitfähige Kommunikationsinfrastruktur und nahtlose Integration der Steuerungssysteme. Die Dimensionierung muss Funk, Rechenleistung, Schnittstellen und Safety-Aspekte gleichermaßen umfassen. Die Komplexität ist hoch, weshalb integrale Planung mit Experten aus allen Bereichen (FM, IT, Logistik, Sicherheit) zu empfehlen ist – idealerweise entlang von Checklisten wie der VDI 2710 (Planungshilfe FTS). Die erzielbaren Effizienzgewinne – schnellere Durchsätze, Personaleinsparungen – sind erheblich, wie z.B. Amazons Automatisierung deutlich zeigt, aber sie sind nur mit einer soliden IT-Infrastruktur realisierbar.

Smart Buildings mit IoT

  • Smart Buildings verbinden Bauwerke mit modernster Informations- und Sensoriktechnik, um Betriebsabläufe zu optimieren, Energie zu sparen und den Komfort für Nutzer zu erhöhen. In Bürogebäuden, Bildungsstätten, Krankenhäusern und anderen Immobilien setzt sich das Internet of Things (IoT) zunehmend durch: Tausende Sensoren und Aktoren erfassen Daten von der Raumtemperatur über die Luftqualität bis hin zur Nutzung von Räumen, und zentrale intelligente Systeme steuern Beleuchtung, Klima oder Zugang. Für das Facility Management eröffnet dies neue Möglichkeiten, stellt aber auch hohe Anforderungen an die Infrastrukturplanung.

  • Für die IT-Infrastruktur eines Smart Building bedeutet dies zunächst eine extrem hohe Gerätedichte. Sensoren und Aktoren können Zigtausende von Endpunkten darstellen – von Präsenzmeldern über vernetzte Leuchten (Stichwort DALI2-Bus) bis zu Jalousiemotoren und intelligenten Steckdosen. All diese Geräte benötigen Konnektivität. In Gebäuden kommen oft gebäudespezifische Bussysteme zum Einsatz: etwa KNX (ISO/IEC 14543) für die Gebäudeautomation, BACnet (ISO 16484-5) für die Leittechnik oder proprietäre Systeme. Zunehmend jedoch auch IP-basierte IoT-Protokolle: MQTT, CoAP, Zigbee, EnOcean etc. Die Herausforderung für die Infrastruktur ist, eine Integrationsplattform bereitzustellen, welche die Daten all dieser Gewerke einsammelt und verteilt. Hier setzen moderne IoT-Plattformen oder Building Management Systeme (BMS) an, die als Software auf Servern (vor Ort oder in der Cloud) laufen. Die Dimensionierung umfasst also: ausreichend Server/Cloud-Kapazität für die Datenverarbeitung (inkl. eventuell KI-Algorithmen für Analytics) und genügend Speicher für Historisierung (Trendaufzeichnungen von Verbrauch, Nutzung).

  • Ein wichtiges Kriterium ist die Netzwerktopologie im Gebäude. Meist existieren getrennte Netzwerke: eins für klassische IT (Büro-LAN/WLAN) und eins für die Gebäudeleittechnik (GLT) bzw. IoT-Geräte, um Sicherheitsrisiken zu minimieren. Das Gebäudenetz (oft auch OT-Netz im Gebäude genannt) kann wiederum untergliedert sein nach Stockwerken oder nach Funktionsbereichen (z.B. ein VLAN für CCTV-Kameras, ein anderes für Zutrittssysteme). Die Infrastruktur muss durchgängig sein – vom Sensor auf der untersten Feldebene (evtl. via Gateway) bis zur Managementebene. Hierfür existieren Normen wie VDI 3814, welche Planung, Ausführung und Übergabe von Gebäudeautomation standardisieren und beispielsweise vorschreiben, wie die Kommunikationsstruktur aufgebaut sein soll. In den letzten Jahren wurde die ehemals strikt hierarchische Struktur (Feldbus -> Automationsebene -> Management-EBENE) flexibler, aber die Grundprinzipien gelten: Linien, Ringe, Sterntopologien je nach Einsatz. Eine Faustregel für die Dimensionierung: immer Reserve einplanen – z.B. zusätzliche Ports auf Switches, da im Lebenszyklus eines Gebäudes fast sicher noch weitere IoT-Geräte nachgerüstet werden.

  • Datenmanagement und Standards: Ein Smart Building generiert enorme Datenmengen (Big Data im Gebäudekontext). Damit diese nutzbar sind, wird Wert auf einheitliche Datenstrukturen gelegt. Die GEFMA 480 Richtlinie (2022 veröffentlicht) bietet Handlungsempfehlungen zu standardisierten Datenstrukturen im FM, um die wachsenden Sensordaten und digitalen Gebäudedaten zu organisieren. Zudem werden semantische Modelle wie Brick Schema oder Project Haystack eingesetzt, um Geräte und Messwerte standardisiert zu beschreiben (z.B. alle Temperatursensoren mit einheitlichen Attributen). Die Infrastruktur sollte also in der Lage sein, Meta-Datenbanken oder Tagging-Systeme zu hosten, die solche Informationen vorhalten.

  • Energie- und Nachhaltigkeitsaspekte sind bei Smart Buildings ein wesentlicher Treiber. Die Infrastruktur soll den Energieverbrauch senken, z.B. durch bedarfsgeführte HLK-Steuerung. Gleichzeitig verbraucht sie selbst Energie (viele Sensoren, Netzwerkhardware, Server). Hier ist ein Trade-off zu managen. Wo immer möglich, werden heute energieautarke Sensoren (z.B. EnOcean mit Energy Harvesting) bevorzugt oder Funkprotokolle mit niedrigem Stromverbrauch. Auf der Auswertungsseite wird versucht, cloudbasierte Analysen so zu optimieren, dass nicht unnötig Daten hin- und hergeschoben werden – etwa durch Vorverarbeitung an Edge-Gateways (komprimieren, filtern). Auch zeigt die Praxis, dass Telekommunikationsräume in Gebäuden (für Netzwerkswitches etc.) ausreichend gekühlt und abgesichert sein müssen – FM und IT müssen also z.B. die Raumplanung für Technik berücksichtigen (Platzbedarf für zusätzliche 19-Zoll-Racks voll IoT-Controller).

  • Normativ sind verschiedene Regelwerke relevant: Die erwähnten DIN EN ISO 16484 (Gebäudeautomationssysteme), VDI 3814, VDI 6010 (Gebäudetechnik). Für einzelne Gewerke gibt es spezifische Normen wie DIN EN 15232 zur Energieeffizienz durch Gebäudeautomation, DIN EN 50600-1 Kapitel zur Gebäudeinfrastruktur für Rechenzentren in Gebäuden, VDI 6022 (Raumlufttechnik - Hygiene, indirekt relevant). Zudem greifen gesetzliche Vorgaben wie das Gebäudeenergiegesetz (GEG), das vorschreibt, ab einer gewissen Gebäudegröße ein Energiemanagement vorzuhalten – was Smart Building Technik quasi notwendig macht zur Erfüllung. Datenschutz ist auch hier Thema: In smarten Büros könnten Sensoren theoretisch individuelle Nutzungsprofile erstellen, was mit Persönlichkeitsrechten kollidiert. Daher muss die Infrastruktur so dimensioniert sein, dass Privacy by Design umgesetzt wird – z.B. Datenanonymisierung direkt am Sensor oder strenge Zugriffsbeschränkungen auf personenbezogene Daten.

  • Im Betrieb zeigt sich, dass Smart Buildings besonders vom Zusammenspiel der Disziplinen profitieren: IT-Spezialisten, TGA-Fachplaner (Technische Gebäudeausrüstung) und FM-Manager müssen eng kooperieren. Ein Gebäudebetrieb wird „digital ready“ gemacht, indem früh im Projekt die IT-Infrastruktur mitgeplant wird – etwa Leerohrsysteme für Sensorleitungen, Positionen für Wireless-Sensoren (damit z.B. Stahlbeton nicht Funk blockiert), zentrale Datenplattform-Auswahl usw. Die empirische Evidenz aus Pilotbauten (z.B. The Ship in Köln, Hammerbrooklyn in Hamburg) zeigt, dass durch IoT im FM erhebliche Effizienzsteigerungen möglich sind, aber nur, wenn das System zuverlässig und benutzerakzeptiert funktioniert. Dazu braucht es eine strukturierte Vorgehensweise: oft beginnt man mit einem Digitalisierungs-Check (Bestandsaufnahme der vorhandenen Technik, gemäß z.B. GEFMA-Empfehlungen), legt dann Ziele fest (Energie sparen, Komfort erhöhen etc.) und richtet danach die Infrastruktur aus. Die Dimensionierung orientiert sich an diesen Zielen – ein Haus mit Fokus Energiemanagement wird z.B. besonders viele Zähler und Sensoren benötigen; ein Büro mit Fokus Mitarbeiterkomfort investiert mehr in personalisierte Apps und Sensorik für Licht/Klima.

  • Es ist die IT-Infrastruktur im Smart Building ein integraler Bestandteil des Gebäudes selbst geworden – oft spricht man vom Gebäude als "Computer". Für FM bedeutet das, technische und organisatorische Kompetenz in IT aufzubauen oder eng mit der IT-Abteilung zusammenzuarbeiten, um diese Gebäudeleitsysteme der nächsten Generation erfolgreich einzuführen und zu betreiben.

OT-Systeme und kritische Infrastrukturen (Operational Technology)

  • Der Begriff Operational Technology (OT) umfasst – wie bereits eingeführt – die Gesamtheit der eingesetzten Technik zur Steuerung und Überwachung von physischen Prozessen. Darunter fallen Industrieanlagen, Energie- und Wasserversorgungssysteme, Verkehrsleittechnik, Gebäudeautomation und vieles mehr. In diesem Kapitel soll der Fokus auf OT-Systeme gelegt werden, die nicht bereits durch vorherige Szenarien abgedeckt sind, insbesondere im Kontext kritischer Infrastrukturen (KRITIS) und branchenübergreifender Herausforderungen der IT/OT-Integration.

  • OT vs. IT Unterschiede: OT-Systeme unterscheiden sich von klassischen IT-Systemen durch andere Prioritäten. Während in IT oft Datenverarbeitungsgeschwindigkeit und Verfügbarkeit für Geschäftsprozesse im Vordergrund stehen, hat OT häufig Safety und Anlagenverfügbarkeit als höchste Priorität. Zeitkritik ist ebenfalls ausgeprägt: In OT spricht man von deterministischen Echtzeitanforderungen (z.B. muss ein Schutzsystem in einem Kraftwerk innerhalb von Millisekunden ansprechen, sonst drohen Schäden). Außerdem laufen OT-Geräte (Steuerungen, Leitstände) oft auf speziell entwickelten Betriebssystemen oder veralteten Plattformen (Legacy), da sie jahrzehntelang im Einsatz sind. Die Infrastrukturdimensionierung muss also auch Altsysteme berücksichtigen, die vielleicht nicht einfach ersetzt werden können, aber integriert werden müssen. Beispielsweise könnte eine Fabrik noch RS-232-basierte Sensorschnittstellen haben – hier muss die neue IT ggf. Bridges/Gateways einplanen, was ein "Overhead" in der Infrastruktur bedeutet (mehr Geräte, mehr Protokollwandler).

  • In den letzten Jahren ist die IT/OT-Konvergenz zum Schlagwort geworden: Unternehmen wollen die Daten aus der Produktion (OT) mit der Informationsverarbeitung (IT) verknüpfen, um übergreifende Optimierungen zu erzielen (z.B. prädiktive Instandhaltung, Qualitätssicherung, Supply-Chain-Optimierung in Echtzeit). Dies erfordert ein Zusammenwachsen der Netze, Protokolle und Sicherheitskonzepte. Die Auslegung einer solchen integrierten Infrastruktur muss sehr gut geplant sein, denn IT und OT haben teils widersprüchliche Anforderungen (z.B. will IT regelmäßig Systeme patchen, OT scheut Neustarts wegen Produktionsunterbrechung). Zonen-Modelle (wie in der Norm IEC 62443 empfohlen) helfen hier: Man segmentiert das OT-Netz in Zonen nach Kritikalität und verbindet sie über kontrollierte Konduits (Firewalls, Gateways) mit der IT. Die Dimensionierung muss folglich genügend Firewall-Durchsatz für die nötigen Datenflüsse vorsehen, zugleich aber Begrenzungen implementieren, um nicht alle Daten ungezielt durchs Netz zu schicken (Stichwort: nur aggregierte/whitelist-basierte Kommunikation zwischen OT und IT zulassen).

  • Sicherheit in OT: Da viele OT-Systeme zu kritischen Infrastrukturen gehören (Energie, Wasser, Gesundheit, Transport), hat der Gesetzgeber hier strenge Vorgaben erlassen. In Deutschland verpflichtet das IT-Sicherheitsgesetz KRITIS-Betreiber, den Stand der Technik in der IT-Sicherheit umzusetzen und Vorfälle zu melden. Das BSI hat einen eigenen Bereich für Industrie und SCADA-Sicherheit eingerichtet und publiziert z.B. den ICS-Security-Kompass. Dimensionierungskriterien in OT umfassen daher zwingend: Redundanz und Robustheit, Isolation von kritischen Komponenten, Notfallkonzepte. OT-Infrastruktur muss fehlertolerant sein, weil Ausfälle direkt physische Prozesse stören. Oft werden deshalb redundante Leitwege (doppelte Steuerkabel, zweite Steuerrechner in Hot-Standby) vorgesehen. Die Norm IEC 62443 liefert ein Framework, um Security in Industrial Automation umzusetzen – z.B. werden Security Level definiert, die Geräte oder Zonen erreichen sollen, mit Anforderungen etwa an Authentifizierung, Verschlüsselung, Anomalieerkennung.

  • Praktisch heißt das: In einer Leitwarte (z.B. eines Kraftwerks) werden Firewalls so dimensioniert, dass nur erlaubte Protokolle (etwa OPC DA/UA zu einem Datengateway) passieren und alle anderen Ports dicht sind. Die Server für Prozessdaten werden in speziellen demilitarisierten Zonen (DMZ) platziert, eventuell physisch getrennt vom Office-Rechenzentrum. Die Netzwerktechnik muss häufig alte Protokolle beherrschen (Modbus, Profibus über Gateways etc.) und gleichzeitg neue (Ethernet/IP). Hier ist die Interoperabilität wieder kritisch.

  • Monitoring & Anomalie-Erkennung: In OT-Umgebungen ist es schwieriger, Angriffe zu erkennen, da klassische IT-Security-Tools (Antivirus, IDS) nicht immer verfügbar sind oder zu Fehlalarmen führen können. Daher wächst das Feld der Industrial Intrusion Detection Systems (IIDS). Die Infrastruktur sollte Platz und Mirroring-Funktionen vorsehen, um OT-Netzwerktraffic an solche Überwachungssysteme zu leiten. Das kann bedeuten: zusätzliche Switchports, Sensor-Appliances an zentralen Netzwerk-Knoten, genügend Rechenpower, um Traffic-Analysen durchzuführen. Und natürlich qualifiziertes Personal bzw. Dienstleister, die diese Systeme betreiben – was im FM-Kontext relevant ist, da FM oft auch Betreiberverantwortung hat.

  • Beispiele kritischer OT-Infrastruktur: Betrachten wir ein Rechenzentrum für Gebäudesteuerung in einem Flughafen – es müssen Brandmeldeanlage, Zugangssystem, Videoüberwachung, Lüftung etc. kontinuierlich funktionieren. Die Auslegung sieht hier z.B. eine voll redundante Server- und Netzwerkarchitektur vor, oft in getrennten Brandabschnitten (damit Feuer in einem Serverschrank nicht alles lahmlegt). USV-Anlagen sichern Strom ab, Dieselgeneratoren sind möglicherweise vorhanden.

  • Normen wie DIN EN 50518 (Alarmempfangsstellen) definieren Verfügbarkeitsanforderungen: es darf höchstens wenige Minuten Ausfall pro Jahr geben. Diese Werte treiben die Dimensionierung direkt: Man rechnet, welche Redundanzstufe nötig ist, um z.B. 99,99% Verfügbarkeit zu garantieren. Im FM muss dann auch geklärt sein, wie Wartungen durchgeführt werden, ohne den Betrieb zu stören (Wartungskonzepte, Nachts, Umschalten auf Backup).

  • Lebenszyklus und Updates: Ein großes Thema bei OT ist das Management von Updates und Upgrades. Während in der IT regelmäßige Erneuerungen normal sind, sind OT-Anlagen oft jahrzehntelang unverändert in Betrieb. Dieses "Auseinanderlaufen" von Technologie-Generationen verursacht Probleme: Neu beschaffte IT-Infrastruktur muss oft abwärtskompatibel sein. Dimensionierungsentscheidungen hier: Lasse ich alte Systeme isoliert weiterlaufen (Legacy Island) und koppel nur Daten über Gateways, oder versuche ich einen Generationswechsel, was hohe Investitionen bedeuten kann? Es gibt kein allgemeingültiges Patentrezept, aber die Tendenz geht dahin, zumindest Datenprotokoll-Übersetzer vorzusehen, um aus alten Steuerungen die Daten ins neue System zu bekommen. In jedem Fall muss eine Inventarisierung (Asset Management) gemacht werden, um zu wissen, welche Komponenten da sind – was die Basis des IT-Grundschutz in OT bildet.

  • Empirisch lässt sich feststellen, dass viele Unternehmen noch in der Lernkurve stehen, OT adäquat abzusichern. Häufige Schwachstellen sind z.B. ungepatchte Windows-basierte Leitstand-PCs oder Passwörter, die nie geändert wurden. Das BSI-Lagebild bestätigt zunehmende Angriffe auf solche Systeme. Daher fließen immer mehr Ressourcen in die Nachrüstung von sicheren Infrastrukturkomponenten: Jump-Hosts für Fernwartung (damit Techniker nicht direkt an SPS gehen, sondern über sicheres Gateway), Netzwerk-Logging, segmentierte Switches mit VLANs bis auf Produktionsebene. Unternehmen, die ISO 27001-Zertifizierung anstreben (ggf. mit branchenspezifischer Erweiterung wie ISO 27019 für Energienetze), müssen detailliert nachweisen, wie ihre Infrastruktur diese Schutzziele erfüllt.

  • Eine besondere Kategorie sind Infrastrukturen in öffentlichen Gebäuden (Smart City Ansätze, Verkehrsleitsysteme etc.). Hier gelten oft zusätzliche rechtliche Rahmen, z.B. muss alles, was personenbezogene Daten erfasst (Video in Bahnhöfen, Verkehrskameras) mit Datenschutzbeauftragten abgestimmt sein. Auch greifen Normen der funktionalen Sicherheit (etwa Ampelanlagen nach DIN VDE 0832). Die IT-Infrastruktur-Betreiber (z.B. Stadtwerke) stehen somit vor multidisziplinären Anforderungen – IT, OT, Recht, Safety. Das Facility Management kann hier als Koordinator fungieren, da es Gebäude, Anlagen und oft auch IT-Services unter einem Dach vereint.

  • Es erfordern OT-Systeme eine Infrastrukturplanung, die konservative Zuverlässigkeit mit modernen Vernetzungsansprüchen balanciert. Dimensionskriterien wie Verfügbarkeit, Echtzeit und Sicherheit werden hier zur conditio sine qua non. Die Habilitationsschrift hat herausgearbeitet, dass die erfolgreiche OT/IT-Integration nur mit Frühzeitiger Planung und Einbindung aller Stakeholder gelingt – von der Unternehmensführung über IT-Leiter bis zum Anlagenbediener. Im Anhang findet sich hierzu eine Checkliste „IT/OT-Integration planen“, die Schlüsselaspekte zusammenfasst (Anhang C).

Normen, Standards und gesetzliche Rahmenbedingungen

Wie in den vorherigen Kapiteln deutlich wurde, sind Normen und Standards allgegenwärtig im Kontext der IT-Infrastruktur und ihres Zusammenwirkens mit Facility Management. Dieses Kapitel bietet einen systematischen Überblick über die wichtigsten deutschen und internationalen Normen, Richtlinien und Gesetze, die bei der Dimensionierung und dem Betrieb der IT-Infrastruktur in den betrachteten Szenarien zu beachten sind. (Eine tabellarische Übersicht mit Kurzerläuterungen findet sich in Anhang D.)

Management- und FM-bezogene Normen

  • DIN EN 15221 / ISO 41000-Serie (Facility Management): Diese Normenreihe (15221 wurde überführt in ISO 41011 ff.) definiert Begriffe, Rahmenbedingungen und Anforderungen an FM-Organisationen. Für unsere Thematik relevant, weil sie das Zusammenspiel von Prozessen, Technik und Services standardisiert. Beispiel: DIN EN 15221-2 liefert einen Leitfaden zur Ausarbeitung von FM-Vereinbarungen und enthält grundlegende Definitionen (z.B. Service Level Agreement, Key Performance Indicator). Die kommende ISO 41001 (FM-Managementsysteme) ermöglicht zudem eine Zertifizierung von FM-Organisationen und stellt damit FM auf eine Stufe mit Qualitäts- (ISO 9001) und Umweltmanagement (ISO 14001).

  • GEFMA-Richtlinien: Als Verbandsvorgaben ergänzen sie Normen. GEFMA 100 beispielsweise beschreibt das Leistungsbild des FM und positioniert es als eigenständige Managementdisziplin, inkl. FM in Industrie und öffentlicher Hand. Für IT und Digitalisierung sind insbesondere die GEFMA 400er-Reihe wichtig: Darin finden sich Richtlinien zu CAFM (Computer Aided FM), Datenmanagement und neuen Technologien. GEFMA 444 z.B. ist ein Standard zur Zertifizierung von CAFM-Software, der 17 Schwerpunkte umfasst (von Flächenmanagement bis BIM-Integration). GEFMA 480 (2022) wurde bereits erwähnt: Standardisierte Datenstrukturen im FM. Zusätzlich sind auch die gerade entstehenden Richtlinien GEFMA 928 und 942 zu IoT und Cloud im FM bemerkenswert, die Zukunftsthemen behandeln.

  • ITIL und ISO 20000: Zwar kein deutscher Standard, aber ITIL (IT Infrastructure Library) ist international verbreitet und ISO 20000 ist die Norm für IT-Service-Management. Relevanz: ITIL definiert u.a. den Prozess IT Facilities Management, der verantwortlich ist für alle technischen Anlagen, in denen IT betrieben wird (Strom, Kühlung, Zugangskontrolle). Das Bewusstsein dafür, dass solche Prozesse existieren, hilft FM und IT-Abteilungen ihre Rollen abzugrenzen.

Technische Normen – Rechenzentrum, Verkabelung, Hardware

  • DIN EN 50600 (Rechenzentren): Umfassende europäische Normenreihe zur Planung, Bau und Betrieb von Rechenzentren. Enthält u.a. Anforderungen an Verfügbarkeit (Verfügbarkeitsklassen), Schutzklassen, Energieversorgung (Duale Einspeisungen etc.), Klimatisierung, physische Sicherheit. Für FM ist diese Norm essenziell, wenn ein eigenes Data Center betrieben oder geplant wird, um den Stand der Technik zu gewährleisten. Sie gibt Hinweise zur Dimensionierung von USV, Dieselgeneratoren etc. entsprechend der angestrebten Verfügbarkeit.

  • ANSI/TIA-942 / Uptime Institute Tiers: Dies sind zwar keine deutschen Normen, aber in der Praxis oft herangezogen. Sie definieren Tier I–IV Level für Data Center, was ebenfalls unterschiedliche Redundanzgrade beschreibt. So entspricht Tier IV ungefähr 99.995% Verfügbarkeit im Jahr (~0,4h Ausfall). Viele Unternehmen nutzen diese Kategorien, um ihre Infrastruktur auszurichten.

  • DIN EN 50173 / ISO/IEC 11801 (Verkabelung): Standard für strukturierte Gebäudeverkabelung (LAN). Legt Kategorien (Cat5, Cat6, Cat7 etc.), Topologien (Stern-, Baumstruktur), Dämpfungsgrenzen und Prüfverfahren fest. Für die Dimensionierung entscheidend, um z.B. zu planen, wie viele Doppeladern pro Arbeitsplatz nötig sind, welche Längen zulässig sind (100m pro Segment), wie Backbone und Etagenverteiler ausgelegt werden. Ergänzend DIN EN 50174 (Installation von Kommunikationstechnik) ist zu beachten – sie macht Vorgaben zur Verlegung (Trennung von Stromkabeln, Mindestbiegeradien usw.).

  • DIN EN 301549 (Barrierefreiheit ICT): In Büros relevant, falls IT-Arbeitsplätze barrierefrei gestaltet werden müssen (z.B. für behinderte Mitarbeiter). Hier werden Anforderungen an die Hardware/Software gestellt (z.B. Screenreader-Kompatibilität).

  • Herstellerspezifische Normen: Z.B. VDE-Normen für IT-Geräte Sicherheit (VDE 0800-Reihe für Fernmeldeanlagen, VDE 0833 für Gefahrenmeldeanlagen). Diese tangieren die Infrastruktur, wenn z.B. Brandmeldeanlagen mit IT vernetzt sind.

Sicherheitsstandards (IT-Security und OT-Security)

  • BSI IT-Grundschutz-Kompendium: Das BSI veröffentlicht jährlich ein Kompendium mit modularen Bausteinen für Informationssicherheit. Es deckt von Managementaspekten bis zu technischen Maßnahmen alles ab. Für die Infrastruktur sind bestimmte Bausteine zentral, z.B.: INF.-Reihe (Infrastruktur) mit Bausteinen für Serverraum, Netzverkabelung, technisches Umfeld; SYS.-Bausteine für Serversysteme, Clients; IND.-Bausteine für Industrial Security. Der IT-Grundschutz bietet einen praxisnahen Katalog an Anforderungen (Muss-, Soll-, Kann-Maßnahmen) – z.B. fordert er für einen Serverraum Zugangskontrollsysteme, Klimamonitoring und Löschanlagen ab einem bestimmten Schutzbedarf. Diese Kriterien können direkt als Planungscheckliste dienen. Unternehmen können sich sogar ISO 27001 auf Basis von IT-Grundschutz zertifizieren lassen, was zeigt, dass man die BSI-Kataloge voll umgesetzt hat.

  • ISO/IEC 27001: Internationaler Standard für ISMS (Information Security Management System). Indirekt relevant, da viele Branchen ISO 27001 verlangen. Für Infrastruktur heißt das: Es müssen Risikobeurteilungen gemacht werden und entsprechende Maßnahmen ergriffen. ISO 27002 (Kontrollkatalog) enthält z.B. Kontrollen wie "Physische Zutrittskontrollen zu Einrichtungen" oder "Schutz vor Versorgungsausfall", was dimensionierungsrelevant ist (z.B. Zutrittssystem, Videoüberwachung, Notstrom).

  • IEC 62443 (Industrielle Kommunikation - Netz- und System-Sicherheit): Bereits erwähnt, spezifisch für OT-Umgebungen. Sie gliedert sich in vier Ebenen (General, Policies&Procedures, System, Component) und definiert Security Level 1–4. Für Planer von industrieller IT wichtig als Referenz. Z.B. fordert Security Level 3, dass Systeme gegenüber einfachen und gezielten Angriffen geschützt sind – was nur mit entsprechender Netzwerksegmentierung, Authentisierung etc. erreichbar ist.

  • VDI/VDE 2182: Deutsche Richtlinienreihe zur Sicherheit in industrieller Automatisierung. Blatt 1 beschreibt ein Vorgehensmodell zur Implementierung von Security-Maßnahmen in Anlagen. Blatt 4 gibt Empfehlungen für Security-Eigenschaften von Komponenten (z.B. fordert es, dass Steuerungen Passwörter und Kryptofunktionalität haben). Für Beschaffung und Dimensionierung von OT-Geräten kann das herangezogen werden.

  • Branchenspezifische Sicherheitsstandards: Viele Branchen haben eigene Vorgaben: Energie z.B. das BDEW-Whitepaper, die Netzbetreiber müssen nach IT-Sicherheitskatalog (EnWG) ein ISMS haben; im Gesundheitswesen existiert die IEC 80001 für IT-Netze in Kliniken (Risikomanagement von IT in Medizin-Netzwerken). In der Automobilindustrie setzt die TISAX-Standard (vom VDA) hohe Security-Anforderungen für Zulieferer, was oft auch die IT-Infrastruktur betrifft (z.B. verschlüsselte Datenablage, Zutrittskontrolle zu Entwicklungslaboren).

Weitere relevante Normen/Standards

  • DIN EN ISO 50001 (Energiemanagement): Indirekt relevant, da IT-Infrastruktur zum Energieverbrauch beiträgt und über Monitoring (Smart Meters, Software) Optimierungspotenziale gehoben werden können. Wer nach 50001 zertifiziert ist, wird auch IT-Verbräuche tracken und Maßnahmen (vielleicht Green IT Beschaffung) einleiten.

  • DIN EN 15232 (Energieeffizienz von Gebäuden durch Gebäudeautomation): Diese Norm klassifiziert Gebäudeautomation in Effizienzklassen (A bis D). Höhere Klasse (A) bedeutet viel Automation und dadurch Einsparungen. Sie quantifiziert z.B., dass eine Klasse-A-Gebäudeautomation den Heizenergiebedarf um X% senken kann. Für uns bedeutet das: Wenn ein Bauherr Klasse A erreichen will, muss er entsprechend IoT-Sensoren/Aktoren (für Einzelraumregelung, präsenzabhängige Steuerung usw.) dimensionieren.

  • VDI 3814 (Gebäudeautomation): Unterstützt Planer bei der Beschreibung von GA-Funktionen und der Auswahl von Automationsstationen. Sie fordert z.B. eine Gliederung nach Automationsfunktionen und liefert Muster für Funktionslisten. Das hilft, nichts zu vergessen bei der Dimensionierung (z.B. jede RLT-Anlage braucht ihre Regelungsfunktionen, wofür ein DDC-Controller dimensioniert sein muss).

  • Arbeitsstättenrichtlinien / Ergonomie-Standards: Für Büro-IT relevant: DIN EN ISO 9241 (Ergonomie der Mensch-System-Interaktion) z.B. für Bildschirme. Auswirkung auf Infrastruktur: z.B. sollten Bildschirme flimmerfrei sein (was eher Geräteauswahl als Infrastruktur betrifft). Aber auch DGUV Vorschrift 3 (Elektrische Anlagen und Betriebsmittel) – regelmäßige Prüfungen von Steckdosen, Kabeln etc.

  • BSI-Gesetz (§8a regelt KRITIS-Sicherheit, wichtig für Betreiber).

  • IT-Sicherheitsgesetz (2015, 2021 novelliert) – bringt Pflichten zur Meldung und Mindeststandards.

  • Telekommunikationsgesetz (TKG) – falls Unternehmen eigene Telekommunikationsanlagen betreiben, müssen sie evtl. Regulierung beachten (z.B. Notruf-Funktionalität bei VoIP).

  • EU-Datenschutzgrundverordnung (DSGVO) – fordert Stand der Technik beim Schutz personenbezogener Daten, was sich auf IT-Sicherheitsmaßnahmen in der Infrastruktur auswirkt (z.B. Verschlüsselung von Datenträgern, Zutrittskontrolle).

  • Produktsicherheitsgesetz (ProdSG) – wenn eigene Entwicklungen z.B. von IoT-Sensorik vorgenommen werden, müssen diese sicher sein.

  • Betriebssicherheitsverordnung (BetrSichV) – für Arbeitsmittel/Maschinen (indirekt IT, falls eine IT-Komponente als Arbeitsmittel gilt).

  • Arbeitsschutzgesetz – Für Homeoffice relevant (ArbSchG und Arbeitsstättenverordnung regeln, dass Arbeitgeber die Telearbeitsplätze ergonomisch einrichten muss; IT-seitig z.B. Laptop + Monitor, VPN für sicheres Arbeiten).

Man sieht, die Liste der Normen und Regeln ist lang. In der Praxis hilft es, eine Normenübersicht je nach Anwendungsfall zu erstellen (siehe Anhang D). Wichtig ist das Verständnis, dass Normen nicht Selbstzweck sind: Sie helfen, Stand der Technik und Compliance sicherzustellen. Gerade im FM-Bereich, wo Haftungsfragen (Betreiberverantwortung) auftreten, kann Einhaltung einschlägiger Normen einen sicheren Rechtsrahmen bieten. Beispielsweise kann ein FM-Verantwortlicher für IT-Räume sich entlasten, wenn er nachweislich BSI-Grundschutz umgesetzt hat, falls es dennoch zu einem Sicherheitsvorfall kommt.

Für die Auslegung der IT-Infrastruktur empfehlen wir einen normativen Multi-Compliance-Ansatz: Orientieren an ISO 27001/BSI für Security, an ISO 9001 für Prozessqualität, an spezifischen VDI/DIN für Fachthemen und stets die gesetzlichen Mindestanforderungen erfüllen. Checklisten (siehe Anhang C für eine Beispiel-Checkliste zur Infrastrukturplanung) helfen, alle relevanten Aspekte systematisch abzuklopfen.

Synthese: Verknüpfung von Theorie und Praxis

Aus den bisherigen Kapiteln ergibt sich ein vielschichtiges Bild: Einerseits existieren universelle Kriterien und Methoden für die Dimensionierung von IT-Infrastrukturen, andererseits weisen verschiedene Nutzungsszenarien ganz spezifische Profile und Schwerpunkte auf. In diesem Synthese-Kapitel sollen die wichtigsten Erkenntnisse zusammengeführt und gegenübergestellt werden – mit dem Ziel, Leitlinien für die Auslegung betrieblicher IT-Infrastruktur zu formulieren, die sowohl wissenschaftlich fundiert als auch in der Praxis anwendbar sind.

Gemeinsamkeiten über Szenarien hinweg

Trotz aller Unterschiede betont jedes Szenario die Bedeutung von Zuverlässigkeit, Sicherheit und Skalierbarkeit. Diese „Magischen Dreiecke“ der IT-Infrastruktur tauchen überall auf. Ob Büro oder Fabrik, ohne zuverlässige Systeme kein Betrieb; ohne Sicherheit drohen Datenverlust oder Sabotage; ohne Skalierbarkeit stößt man bei Wachstum schnell an Grenzen. Somit kann ein Unternehmen eine Baseline-Infrastruktur definieren, die grundsätzlich in allen Bereichen eine gewisse Qualität erfüllt (z.B. Redundanzkonzept, zentrale Monitoring-Lösung, einheitliche Sicherheitsrichtlinien). Ein konzernweites Infrastruktur-Framework könnte beispielsweise vorgeben: Jeder Standort erhält mindestens zwei Internetanbindungen unterschiedlicher Provider; alle Server werden nach einem Standard-Härtungskatalog installiert; Netzwerke sind immer segmentiert in Zonen etc. Solche Standardisierung erleichtert sowohl Planung als auch Betrieb.

Unterschiede und Prioritätensetzung

Die Funktion folgt der Unternehmensmission. In Büros steht die Produktivität der Wissensarbeit im Vordergrund – daher sind dort UX-freundliche Tools, Kollaborationsplattformen, schnelle Reaktionszeiten bei Support etc. wichtig. In der Industrie hingegen ist Prozessstabilität zentral – die IT dort darf ruhig „unsichtbar“ im Hintergrund laufen, Hauptsache die Anlage läuft. Daraus folgt: die Dimensionierung muss sich nach dem Engpass-Kriterium richten. In Fabriken investiert man eher mehr in redundante Hardware und robuste Netzwerke, in Offices eher mehr in Bandbreite, Cloud-Services und Endgerätemanagement. Ein New-Work-Büro mag z.B. 10 Gbit/s Internet-Uplink brauchen wegen vieler Video-Calls, während eine Produktionshalle evtl. mit 100 Mbit/s nach außen auskommt, aber intern ein zeitdeterministisches Feldnetz braucht.

Theorie vs. Praxis – Konzept vs. Umsetzung

Theoretisch stehen uns viele Modelle und Normen zur Verfügung, aber empirisch zeigt sich oft eine Diskrepanz zwischen Soll und Ist. Die Gründe sind: begrenzte Budgets, Altlasten (Legacy-Systeme), Fachkräftemangel, oder schlicht Fehleinschätzungen. Beispielsweise fordert die Theorie „Security by Design“, aber in der Praxis werden IoT-Geräte oft wegen Zeitdruck erstmal unsicher eingebaut und später nachgebessert. Um diese Lücke zu schließen, sollte bei jeder Infrastrukturplanung ein Risiko- und Reifegrad-Assessment erfolgen. Reifegrad-Modelle (CMMI etc.) könnte man adaptieren: Wo stehen wir auf einer Skala in Sachen Verfügbarkeit, Security, Standardisierung? Daraus lassen sich Prioritäten ableiten. Ein empirischer Befund ist zudem, dass Pilotprojekte extrem wertvoll sind. Firmen, die z.B. erst eine kleine Fertigungslinie als Industrie-4.0-Pilot ausstatten, sammeln Erfahrungswerte, welche Technologien funktionieren, wo Flaschenhälse entstehen (vielleicht war das WLAN anfangs unzuverlässig, also lernt man und stellt auf 5G um). Diese Learnings fließen dann in den Rollout ein.

Mensch und Organisation

Technik allein garantiert keinen Erfolg. Mitarbeiter müssen geschult sein, die neue Infrastruktur zu nutzen und zu betreiben. In Büros heißt das, Digital Literacy zu fördern – die beste Cloud nützt nichts, wenn Mitarbeiter unsicher in der Anwendung sind oder die Datenablage chaotisch bleibt. In Fabriken bedeutet es, OT-Personal in IT-Basics zu schulen und umgekehrt IT-Personal in Produktionsabläufe. Das Konzept „New Work“ erfordert auch Kulturwandel – flache Hierarchien, Selbstorganisation – was nur gelingt, wenn die IT-Werkzeuge mitziehen (keine unnötigen Barrieren). Empirisch zeigen Mitarbeiterbefragungen hohe Akzeptanz für Digitalisierung, wenn sie als Erleichterung wahrgenommen wird. Um das zu erreichen, sollten Nutzer früh einbezogen werden (Stichwort Usability-Tests bei neuen Tools, Partizipation bei der Gestaltung von Smart-Building-Apps).

Nachhaltigkeit und Zukunftssicherheit

Die Synthese zeigt auch, dass langfristig gedachte Lösungen kurzfristigen Insellösungen überlegen sind. Zwar mag es attraktiv sein, schnell eine Technik einzuführen (z.B. irgendein IoT-Gadget), aber ohne Integration in das große Ganze entstehen Medienbrüche. Besser ist ein Masterplan, der modulare Erweiterungen vorsieht. Zukunftssicherheit heißt auch, sich auf Weiterentwicklungen einzustellen: Technologieradar beobachten (etwa: Könnten Quantencomputer oder neue drahtlose Standards in 10 Jahren relevant sein?), Trendprognosen in die Planung einbeziehen. Beispielsweise prognostiziert man, dass bis 2030 IoT-Geräteanzahl weiter exponentiell wächst – also sollte die Infrastruktur (IPv6, genügend IP-Adressraum, skalierbare Cloud-Plattformen) dem gewachsen sein.

Die Synthese lässt sich in einer Formel ausdrücken: Erfolgreiche IT-Infrastrukturplanung = klare Anforderungen (aus Nutzungsszenarien) + bewährte Prinzipien (Dimensionierungskriterien) + Einhaltung von Normen + iterative Anpassung aus Erfahrung. Dieser Mix aus planvoller Vorgehensweise und adaptivem Lernen ist kennzeichnend für die Projekte, die in Studien am erfolgreichsten waren.

Im Kontext der Wissenschaft trägt diese Arbeit dazu bei, die Brücke zwischen Facility Management und IT-Management zu schlagen. Bisher wurden diese oft getrennt behandelt – FM für Gebäude, IT für Rechner. Doch die moderne Welt verlangt integrative Ansätze: Der Facility Manager der Zukunft muss IT-Infrastrukturen verstehen, und der IT-Manager muss die Belange der physischen Umgebung und des Nutzungskontexts begreifen. Nur so können z.B. Smart Buildings oder Industrie 4.0-Fabriken ihr volles Potenzial entfalten.

Die Kombination von theoretisch-konzeptionellen Grundlagen und empirischen Einblicken in dieser Schrift unterstreicht: Theorie (Normen, Modelle, Kriterien) liefert die nötigen Werkzeuge und Sprache, Praxis (Fallstudien, Erfahrungswerte) zeigt, wie man sie anwenden und wo man flexibel sein muss. Beispielsweise gibt die Theorie vor, was "Stand der Technik" sein sollte – die Praxis offenbart, wo vielleicht Kompromisse nötig sind oder welche innovativen Pfade möglich sind (z.B. ein Unternehmen entschied, entgegen aller klassischen RZ-Planung, komplett auf Cloud zu gehen – und fuhr gut damit, weil es andere Sicherungsmaßnahmen traf).

In Summe ist die Essenz, dass Dimensionskriterien nicht statisch zu verstehen sind, sondern in jedem Projekt neu austariert werden müssen. Ein strukturierter, aber agiler Planungsprozess – oft in Form von Plan-Do-Check-Act-Zyklen – hat sich als best practice bewährt: Planen (Theorie & Anforderungen sammeln), Do (Implementierung Pilot), Check (Messen, Risiken neu bewerten), Act (Optimieren, ausrollen). So entsteht eine Infrastruktur, die robust, effizient und anpassungsfähig ist.