Laut Robert McFarlane, Leiter des Data-Center-Designs beim US-IT-Dienstleister Shen Milsom & Wilke LLC, stehen Betreiber älterer Rechenzentren vor erheblichen Herausforderungen, wenn sie KI-Hardware wie GPUs integrieren wollen.
In einem Beitrag für „ComputerWeekly“ beschreibt der Experte, dass klassische Rechenzentren ursprünglich nicht für die extrem hohe Leistungsdichte, den Strombedarf und die Wärmeentwicklung moderner KI-Server konzipiert wurden.
So benötigten KI-Systeme mitunter bis zu 40 kW pro Rack – ein Vielfaches dessen, was Legacy-Rechenzentren üblicherweise liefern können. Der Autor betont, dass selbst viele Rechenzentren, die heute als „state-of-the-art“ gelten, nur schwer in der Lage seien, die Anforderungen von KI-Hardware zu erfüllen. Auch bei Kühlsystemen bestehe oft Nachrüstungsbedarf: Luftkühlung reiche meist nicht mehr aus, flüssigkeitsbasierte Kühlungssysteme wie Direct-to-Chip- oder Immersionskühlung seien oft notwendig – jedoch mit komplexen infrastrukturellen Folgen.
Zudem sei zu beachten, dass viele dieser Nachrüstungen mit beträchtlichem baulichem Aufwand verbunden seien, etwa durch die Notwendigkeit, neue Stromtrassen, Kühlleitungen oder tragfähigere Böden zu integrieren. McFarlane warnt, dass eine oberflächliche Modernisierung ohne detaillierte Planung und Risikoanalyse schnell zu Fehlinvestitionen führen könne. Die Integration von KI in bestehende Infrastrukturen sei daher weniger eine Frage der Technikverfügbarkeit als vielmehr ein strategisches Projekt mit langfristigen Auswirkungen.