KI trifft Speicher – Warum klassische Systeme oft scheitern
KI-Anwendungen fordern IT-Infrastrukturen heraus: Datenmengen explodieren, Zugriffe sind komplex, Energieeffizienz wird zur Pflicht. Hitachi Vantara begegnet diesen Anforderungen mit einem modularen Speicher-Ecosystem. Wir sprachen mit Wolfgang Draese über Architekturprinzipien, Objektspeicher und kompromisslose Verfügbarkeit.
Das Hauptproblem von Storage bei KI-Workloads liegt in der Kombination aus extrem hohem Datenaufkommen, heterogenen Zugriffsmustern und dem Bedarf an gleichzeitiger Performance, Skalierbarkeit und Kosteneffizienz. »Klassische Speicherlösungen stoßen hier an ihre Grenzen, weil sie entweder nicht schnell genug liefern, nicht wirtschaftlich genug skalieren oder keine intelligente Datenplatzierung ermöglichen«, erklärt Wolfgang Draese, Senior Sales Executive Public bei Hitachi Vantara, im Video-Interview mit speicherguide.de. KI-Anwendungen erzeugen und verarbeiten enorme Datenmengen – und jeder Datenverlust ist nicht nur teuer, sondern potenziell geschäftskritisch. Daher setzt Hitachi auf ein integriertes Ecosystem mit einem einheitlichen Namespace und abgestuften Speicherklassen, das diese Anforderungen gezielt adressiert.
Hitachi iQ: Ein Ecosystem für den KI-Betrieb
Wie genau dieser Ansatz aussieht und welche Rolle dabei Technologien wie Objektspeicher, Energieoptimierung und ein durchgängiges Architekturkonzept spielen, erörtern wir im Gespräch mit Hitachi-Manager Draese. Er beschreibt Hitachi iQ als modulares Ecosystem, das Compute, Netzwerk und Storage zu einer abgestimmten Einheit kombiniert. Dabei lassen sich die Komponenten auch einzeln betreiben, um sie an individuelle Use-Cases anzupassen.
Zentrales Element ist ein einheitlicher Namespace, der unterschiedliche Speicherklassen – etwa Hochgeschwindigkeitsspeicher für GPU-nahe Berechnungen und skalierbaren Objektspeicher – intelligent zusammenführt. So werden Performance-Anforderungen erfüllt, ohne die Wirtschaftlichkeit aus dem Blick zu verlieren. »Die richtigen Informationen zur richtigen Zeit am richtigen Ort«, beschreibt Draese den Anspruch an die automatische Datenplatzierung innerhalb des Systems.
Video-Interview mit Wolfgang Draege, Hitachi Vantara
Objektspeicher als strategisches Element
Eine besondere Rolle spielt der Objektspeicher. Anders als in traditionellen KI-Architekturen ist er bei Hitachi kein reines Archiv, sondern integraler Bestandteil der aktiven Datenverarbeitung. »Es ist schlicht und ergreifend unwirtschaftlich, nicht einen kosteneffizienten Speicher mit in die Kalkulation zu nehmen«, so Draese. Der hauseigene Objektspeicher aus der HCP-Familie gilt als besonders ausgereift und wird auch von Analysten regelmäßig als technologischer Vorreiter eingestuft.
Neben Skalierbarkeit und Verfügbarkeit steht auch die Energieeffizienz im Fokus. Die Systeme erkennen niedrige Lastphasen automatisch und fahren Komponenten wie CPU und Lüfter herunter, um Strom zu sparen. Steigt die Last wieder, wird die Leistung dynamisch hochgefahren – ohne manuelle Eingriffe.
Ein weiteres Alleinstellungsmerkmal: Hitachi Vantara gibt eine 100-prozentige Datenverfügbarkeitsgarantie auf seine Speicherlösungen. Draese berichtet von Tests in einem Hitachi-Labor, bei denen über 20 Komponenten im laufenden Betrieb entfernt wurden – ohne Auswirkungen auf die Performance oder Datenintegrität. »Wir konnten sämtliche Data-Patterns auch nach dem Entfernen rekonstruieren«, sagt Draese.