InternetIntelligenz 2.0

kostenlos Pressemitteilungen einstellen | veröffentlichen | verteilen

Pressemitteilungen

 

KI braucht Speicherpower: S3 Object Storage rückt ins Blickfeld

ID: 2227069

(IINews) - München, 27. Januar 2026 – Cloudian, ein führender Anbieter softwaredefinierter Objektspeicherlösungen, prognostiziert für 2026 einen gravierenden Wandel im Storage-Bereich. Der KI-Siegeszug verändert die Anforderungen und wird zur Entwicklung von konvergenten Plattformen, neuen Protokollen, Integrationsmustern und Speicherklassen führen. Vor allem S3-kompatible Object-Storage-Systeme werden dabei an Bedeutung gewinnen.

In den letzten Jahrzehnten gab es in der Speicherbranche nur schrittweise Verbesserungen– etwa in Bereichen wie Kapazität, Haltbarkeit oder Kostenoptimierung. Das Jahr 2026 markiert nun einen einschneidenden Wandel. Speicherarchitekturen werden von Grund auf neu konzipiert, um KI-Workloads optimal zu unterstützen. Dabei kristallisieren sich vier Entwicklungen und Trends heraus, die die speziellen KI-Anforderungen von Training, Inferenz und Retrieval-Augmented Generation (RAG) abdecken.

1. Konvergenz von Speicher und KI in integrierten Plattformen

Die erste Entwicklung ist die Konvergenz von Speicher und KI in integrierten Plattformen, die eine hyperkonvergente Architektur für die On-Premises-KI von Unternehmen ermöglichen. Beispielhaft zeigen das Plattformen, die auf Referenzdesigns mit Blackwell-GPUs NVIDIA RTX PRO 6000, BlueField-DPUs, Spectrum-X-Ethernet-Netzwerken und S3-Speicher im Exabyte-Maßstab basieren. Dadurch müssen Unternehmen keine separaten Stacks mehr für die beschleunigte Rechenleistung, die Datenspeicherung und Vektordatenbanken aufbauen und verwalten. Diese integrierten Lösungen transformieren Unternehmensdatenspeicher automatisch in KI-fähige Ressourcen – einschließlich integrierter Vektordatenbank-Funktionen, diemultimodale unstrukturierte Inhalte erfassen, einbetten, indizieren und abrufen. Unternehmen können so innerhalb von Tagen statt Monaten eine produktionsreife KI-Infrastruktur bereitstellen und auf rund 90 Prozent der unstrukturierten Unternehmensdaten wie Dokumente, Berichte, Präsentationen oder Multimedia-Inhalte zugreifen.





2. Nutzung von S3-kompatiblen Speichern in On-Premises-KI-Anwendungen

Der zweite Trend ist die zunehmende Verbreitung von S3-kompatiblem Storage für On-Premises-KI, die durch den Durchbruch der RDMA-Technologie bei S3-kompatiblen Speichern forciert wird. Jahrelang waren Objektspeicher und High-Performance-Computing getrennte Welten – Objektspeicher boten Skalierbarkeit und Kosteneffizienz, während Hochleistungsspeicher hohen Durchsatz und geringe Latenzzeiten lieferten. Die Entwicklung von RDMA-Bibliotheken für S3-kompatible Speicher überbrückt diese Kluft und ermöglicht direkte Datenpfade zwischen Storage, Systemspeicher und GPU-Speicher ohne Beteiligung der CPU. Praxistests zeigen einen Lesedurchsatz von 35 GB/spro Knoten mit linearer Skalierbarkeit, eine 3- bis 5-fache Verbesserung gegenüber herkömmlichen TCP-basierten Objektspeichern und eine Reduzierung der CPU-Auslastung um 90 Prozent. Diese führt zu einer 8-mal schnelleren Vektordatenbank-Performance verglichen mit CPU-basierten Alternativenmit klassischem File Storage. Damit sind S3-Objektspeicher optimal für anspruchsvolle KI-Workloads geeignet.

3. Direkte Integration von Vektordatenbanken in Storage-Plattformen

Eine dritte transformative Entwicklung ist die Integration von Vektordatenbanken direkt in Speicherplattformen– das Konzept des sogenannten Vector Data Lake. Da der Erfolg von KI davon abhängt, unstrukturierte Daten in verwertbare Erkenntnisse umzuwandeln, ist die traditionelle Trennung zwischen Speichersystemen und Vektordatenbanken zu einem Engpass geworden. Die Vector-Data-Lake-Architektur entkoppelt die Rechenleistung vom Speicher, sodass beide Komponenten unabhängig voneinander skaliert werden können und zugleich nahtlos miteinander interagieren. Dies ist besonders wirkungsvoll in RAG-Anwendungen, bei denen LLMs vor der Antwortgenerierung neues Wissen abrufen. GPU-beschleunigte Indizierung in Kombination mit Vektordatenbanken ermöglicht Antwortzeiten im Millisekundenbereich und verändert damit grundlegend den gesamten KI-Lifecycle von der Rohdatenerfassung bis zur Echtzeit-Inferenz.

4. Temporärer KI-Speicher als neue Speicherklasse

Die vierte Innovation ist der temporäre KI-Speicher, der eine grundlegend neue Speicherklasse darstellt und speziell für KI-Inferenz entwickelt wurde. Herkömmliche Unternehmensspeicher legen die Priorität auf Persistenz und Fehlertoleranz durch Redundanztechniken wie RAID und Erasure Coding. Moderne LLMs generieren jedochgroße Mengen an Zwischendaten, insbesondere KV (Key-Value)-Caches, die vorberechnete Attention-Vektoren zur Wiederverwendung speichern. Da diese Cache-Daten vollständig aus Quelldokumenten stammen, die in fehlertoleranten Speichern geschützt bleiben, können sie bei Verlust neu generiertwerden; somit ist Redundanz überflüssig. Die auf der CES 2026 vorgestellte Inference Context Memory Storage Platform von NVIDIA mit BlueField-4-Technologie ist ein Beispiel für diesen Architekturansatz. Die Plattform läuft direkt auf Speicher-NICs und benötigt keine separaten Controller, sodass die Geschwindigkeit und Effizienz anstatt der Ausfallsicherheit optimiert werden. Dieses Konzept führt zu einer drastischen Kostensenkung, da der redundante Speicheraufwand entfällt und zugleich die Performance durch vereinfachte Lese-/Schreibpfade verbessert wird.

„Der KI-Trend hält an und KI-Anwendungen werden immer größere Datenmengen verarbeiten. Die Speicherinfrastruktur wird dabei für den Erfolg von KI-Projekten entscheidend sein, denn Daten sind das Herzstück jeder KI-Anwendung. Das heißt, es wird kein Weg an flexiblen Plattformen vorbeiführen, die enorme Datenmengen aufnehmen und den jeweiligen Anwendungen wieder bereitstellen können, ohne dass Leistungseinbußen entstehen“, betont Carsten Graf, Vice President Sales EMEA von Cloudian. „Vor allem S3-kompatible Object-Storage-Systeme werden dabei an Bedeutung gewinnen. Während traditionelle File- und Blocksysteme vertikal skalieren und schnell an Systemgrenzen stoßen, wachsen Objektspeichersysteme horizontal durch Hinzufügen weiterer Knoten. Sie können damit problemlos mehrere Petabyte an Daten verwalten. Damit sind sie auch eine ideale Lösung für die Anforderungen von KI-Workloads.“


Dieses Listicle und das Bild in höherer Auflösung können unter www.pr-com.de/companies/cloudian abgerufen werden.

Unternehmensinformation / Kurzprofil:

Cloudian ist ein führender Anbieter softwaredefinierter Objektspeicherlösungen. Die exabyte-skalierbare, KI-fähige HyperStore-Plattform kombiniert native S3-API-Kompatibilität, Security auf Enterprise-Niveau, Geo-Verteilung und Multi-Tenancy für maximale Flexibilität in On-Premises- und Hybrid-Cloud-Umgebungen. Durch Integrationen mit AWS, Google Cloud und Microsoft Azure vereinfacht Cloudian das Datenmanagement und beschleunigt KI-, Analytics-, Backup- und Archiv-Workloads bis hin zu Bioinformatik und Edge-Szenarien. Unternehmen erschließen so das volle Potenzial ihrer Daten–sicher, effizient und in jeder Größenordnung.

Weitere Informationen gibt es unter https://cloudian.com/de/.



PresseKontakt / Agentur:

Cloudian
Tanja Reichartz
Director, Marketing EMEA
E-Mail: treichartz(at)cloudian.com

PR-COM
Franziska Fricke
Senior Account Manager
Tel.: +49-89-59997-707
E-Mail: franziska.fricke(at)pr-com.de



drucken  als PDF  an Freund senden  Diese fünf Trends stärken die Fertigungssimulation für die Produktion von morgen Pflichtaufgaben und Chancen für die Versicherungsbranche im Jahr 2026
Bereitgestellt von Benutzer: PR-COM
Datum: 27.01.2026 - 11:29 Uhr
Sprache: Deutsch
News-ID 2227069
Anzahl Zeichen: 0

Kontakt-Informationen:
Ansprechpartner: Franziska Fricke
Stadt:

München


Telefon: +49-89-59997-707

Kategorie:

Internet


Meldungsart: Unternehmensinfos
Versandart: Veröffentlichung
Freigabedatum: 27.01.2026

Dieser Fachartikel wurde bisher 4 mal aufgerufen.


Der Fachartikel mit dem Titel:
"KI braucht Speicherpower: S3 Object Storage rückt ins Blickfeld"
steht unter der journalistisch-redaktionellen Verantwortung von

Cloudian (Nachricht senden)

Beachten Sie bitte die weiteren Informationen zum Haftungsauschluß (gemäß TMG - TeleMedianGesetz) und dem Datenschutz (gemäß der DSGVO).

Europa feiert seinen Independence Day ...

8. Dezember 2025– Wenige Themen treiben die Digitalpolitik derzeit mehr um, als der Kampf um die Unabhängigkeit von außereuropäischen IT-Dienstleistern. Grund dafür ist allen voran die geopolitische Unsicherheit. Wem können und dürfen Unterne ...

Cloudian lokalisiert Enterprise-KI ...

München, 19. November 2025 – Cloudian, ein führender Anbieter softwaredefinierter Objektspeicherlösungen, hat seine HyperScale AI Data Platform veröffentlicht. Die KI-Lösung basiert auf dem Referenzdesign der NVIDIA AI Data Platform und verwan ...

Alle Meldungen von Cloudian



 

Wer ist Online

Alle Mitglieder: 50.290
Registriert Heute: 0
Registriert Gestern: 0
Mitglied(er) online: 0
Gäste Online: 54


Bitte registrieren Sie sich hier. Als angemeldeter Benutzer nutzen Sie den vollen Funktionsumfang dieser Seite.