Voll beschleunigter End-to-End-KI-Daten-Stack mit NVIDIA
9. März 2026
Das Betriebssystem VAST AI OS wird NVIDIA-Bibliotheken zur Beschleunigung von Compute wie auch von Datenservices für Vektorsuche, Realtime-SQL und Agentic-Anwendungen nutzen. Möglich macht dies die erweiterte Partnerschaft mit NVIDIA, in deren Rahmen das VAST AI Operating System direkt auf NVIDIA-basierten Servern läuft. Dadurch sind Anwender in der Lage, Datenengpässe in ihrer KI-Pipeline zu beseitigen und Dateneinspeisung, -bereitstellung, -analyse sowie -inferenzierung auf einer zentralen und einheitlichen Plattform bereitzustellen.
Das Betriebssystem VAST AI OS beschleunigt die Ebenen Datenservices und Compute als ein kohärentes System und beseitigt damit die Komplexität, die aus der Kombination separater Storage-Systeme, Datenbanken und KI-Infrastruktur-Stacks entsteht. Das Ergebnis ist ein einfacherer und schnellerer Weg von der Pilotphase zum Produktivbetrieb von RAG-Pipelines (RAG steht für Retrieval Augmented Generation), Agentic-Systemen und langfristig genutzten KI-Workloads.
Der VAST CNode-X wurde in Zusammenarbeit mit NVIDIA entwickelt und liefert eine neue Generation von NVIDIA-zertifizierten Systemen, die Erstellung und Betrieb von KI-Infrastrukturen grundlegend verändern. VAST AI OS stellt nicht nur Storage-Services in Clustern bereit, die mittels GPUs von NVIDIA beschleunigt wurden. Vielmehr läuft das Betriebssystem nun auch direkt auf NVIDIA-basierten Servern. Durch diese Veränderung in der Architektur ist VAST in der Lage, KI-Pipelines, schnelle Analysen, Vektorsuche, RAG-Funktionen und Laufzeitumgebungen für KI-Agenten in einem zentralen und einheitlichen Software-Stack zu orchestrieren.
Die CNode-X-Server bilden die Computing-Basis für VAST AI OS und nutzen eine große Bandbreite an NVIDIA-Softwarebibliotheken und -Schnittstellen direkt in den zentralen VAST-Softwarediensten einschließlich VAST DataEngine und VAST DataBase. Die Beschleunigungen sind tief in der Plattform eingebettet und liefern einen höheren Durchsatz, geringere Latenz und höhere Effizienz in Echtzeit-SQL-Analysen, Vektorsuchen und -abfragen sowie in einer Vielzahl an KI-Inferencing-Workflows.
Zu den Fähigkeiten auf Basis der GPU-beschleunigten VAST CNode-X-Servern zählen unter anderem:
- GPU-native SQL-Engine-Beschleunigung für VAST DataBase Analytics-Pipelines: Durch die Kombination von speicherseitiger Intelligenz und GPU-beschleunigter Ausführung entwickelt VAST die VAST DataBase weiter, um moderne Analytics-Workloads im gesamten Lebenszyklus von Datenbankabfragen zu beschleunigen. Die Abfrage-Engine von VAST DataBase vereinigt intelligentes Daten-Layout, -Pushdown sowie -Filtern und verringert dadurch überflüssige Ein- und Ausgabeoperationen. Gleichzeitig nutzt sie Sirius, eine quelloffene Query-Engine auf Basis von NVIDIA cuDF, für GPU-beschleunigte SQL-Ausführung auf der Compute-Ebene. Bei NVIDIA cuDF handelt es sich um eine Bibliothek für beschleunigte Analysen strukturierter Daten. Dieser komplementäre Ansatz beschleunigt alle Vorgänge, bevor Daten die Compute-Ebene erreichen, wie auch die Compute-Ebene selbst. Die Datenbank ist dadurch gleichzeitig speicheroptimiert und GPU-beschleunigt. Erste Sirius-Vergleichsdaten zeigen eine um bis zu 44 Prozent geringere Query-Zeit und um bis zu 80 Prozent reduzierte Query-Kosten.
- NVIDIA cuVS für beschleunigte Vektorsuche und -abfrage: Durch die Einbettung von NVIDIAs Bibliothek cuVS macht CNode-X von VAST die GPU-Beschleunigung für Vektorsuche und Daten-Clustering verfügbar. Unternehmen, die VAST für skalierbare Datenbankdienste und die entsprechend dem NVIDIA-AI-Data-Platform-Design entwickelte VAST InsightEngine für ihre RAG-Pipeline im Echtbetrieb nutzen, kommen dadurch in den Genuss verringerter Abfragelatenzen für kontextintensive Echtzeit-KI-Anwendungen.
- NVIDIA Nemotron-Modelle und NIM Microservices für skalierbare DataEngine-Pipelines: VAST wird die NVIDIA NIM Microservices unterstützen und sie in CNode-X für skalierbare KI-Pipelines bereitstellen. Außerdem veröffentlicht das Unternehmen im Open-Source-Modell VAST DataEngine-Vorlagen für KI-Pipelines, die für den Produktivbetrieb vorbereitet sind. Diese Pipelines zielen auf Anwendungsszenarien ab, wie Videoerkennung, RAG für Unternehmensdokumente und Genomikforschung.
- NVIDIA CMX für beschleunigte skalierbare Inferenzierung: VAST unterstützt die NVIDIA Context Memory Storage (CMX) Platform durch Cluster-Konfigurationen, die NVIDIA BlueField-4 DPUs und Spectrum-X-Ethernet-Networking unterstützen. Dadurch beschleunigt sich der Zugriff auf gemeinsam genutzten Key Value (KV) Cache-Speicher und verkürzt die Zeitspanne von der Anfrage bis zur Anzeige des ersten Antwort-Tokens (Time-to-first-Token) bei Multi-Agenten-Inferenzierungen mit umfangreichen Kontextinformationen. Dadurch haben KI-Agenten im gesamten Pod Zugriff auf den Hauptspeicher. VASTs Disaggregated Shared Everything (DASE)-Architektur verschafft Kunden den weiteren Vorteil, optional Enterprise-Data-Services außerhalb des normalen Datenstroms hinzuzufügen, ohne dass dies zu Lasten von KV-Abfragezeiten geht.
Hardwareoptionen für das VAST AI Operating System
VAST wird die CNode-X-Server über führende OEM-Partner wie Cisco und Supermicro auf den Markt bringen. Kunden können dadurch eine GPU-beschleunigte Infrastruktur über ihre bevorzugten Lieferanten beschaffen und gleichzeitig eine konsistente Erfahrung mit VAST-Software, -Support und -Betrieb beibehalten.
Durch die zertifizierten Konfigurationen, die VAST über seine OEM-Partner ausliefert, ermöglicht der Anbieter einen kürzeren Weg zu einer KI im Echtbetrieb bei gleichzeitig verbessertem Support. Die KI-Pipelines von Unternehmen entwickeln sich zunehmend zu fest installierten Systemen. Vor diesem Hintergrund kombiniert VAST seine Datenplattform mit NVIDIA-beschleunigtem Computing im gesamten Stack, um hoch performante Datenabfragen, Analysen sowie Vektorsuche zu liefern und GPUs in RAG-, Echtzeitanalyse- und hoch skalierten KI-Workloads produktiv zu nutzen.(rhh)
VAST Data