Auslastung

Der Auslastungsgrad eines Server- oder Speichersystems gibt einen ersten Hinweis auf die Nützlichkeit von IT-Komponenten. Nachdem Intel-Server sich in den Rechenzentren sprunghaft „vermehrten“, kam zwangsläufig die Frage nach deren Auslastung auf. Durchschnittswerte von 5 bis 15 Prozent gaben einen ersten Hinweis darauf, dass Intel-basierende Server nicht besonders effektiv eingesetzt werden. Aber erst durch die Virtualisierung der Rechenleistung drangen Intel-Server in den Bereich der Unix-Server und Mainframes vor, die durchschnittlich mit 40 bis 70 Prozent ausgelastet sind. 100 Prozent Auslastung sind nicht erstrebbar, da viele Prozesse Reserven benötigen und ohne diese langwierige Auslagerungsprozesse anderer Prozesse anstossen würden. Ähnliches gilt für die Storage-Utilization. Durch RAID-Funktionen gehen von der Bruttokapazität eines Speichersystems bis zu 50 Prozent verloren. Weitere Kapazitätsverluste entstehen durch notwendige Reserven und die vorsorgliche Zuteilung von Speicherkapazität an logischen Laufwerke, damit Projekte nicht irgendwann Fehlermeldungen wie „Disk out of space“ erhalten. Als Gegenmaßnahmen für eine bessere Utilization werden Storage-Virtualisierung und Thin Provisioning eingesetzt. Auch beim Speicher sind unter optimalen Bedingungen Auslastungsgrade von 60 bis 80 Prozent der Nettokapazität erreichbar.