Kosten treten in den Hintergrund: KI braucht die passende Infrastruktur
27. August 2025
Nicht das Budget ist entscheidet: Für die meisten Unternehmen ist es weder praktikabel noch notwendig, dem KI-Wettrüsten von Google, Microsoft, Meta und Amazon zu folgen, denn Unternehmen nutzen KI komplett anders.
Die Giganten der Tech-Branche planen in diesem Jahr mehr als 300 Milliarden Dollar auszugeben, um im KI-Wettrüsten wettbewerbsfähig zu bleiben. Allein Amazon hat über 100 Milliarden Dollar angekündigt, während Microsoft, Alphabet und Meta jeweils weitere Dutzende Milliarden für den Bau riesiger Rechenzentren, den Ausbau von GPU-Clustern und die Sicherung ihrer Dominanz im Bereich der Cloud-basierten KI ausgeben wollen.
Investitionen in dieser Größenordnung sorgen für Schlagzeilen und viele Unternehmen, die selbst dabei sind, ihre KI-Strategie zu planen, sehen sich gezwungen, ihrerseits hohe Budgets einzuplanen. Für die meisten Unternehmen ist es jedoch weder praktikabel noch notwendig, den Plänen der Hyperscaler zu folgen. IT-Führungskräfte fragen sich deshalb zurecht, was für den Einsatz der KI im Unternehmen tatsächlich benötigt wird.
Im Unternehmen wird KI komplett anders genutzt
Wie bei allen Workloads, die ein Unternehmen im Einsatz haben kann, gibt es auch bei KI prinzipiell drei Ansätze:
- Hosten der Workloads in der Public Cloud,
- Hosten der Workloads in der Private Cloud / dem eigenen Rechenzentrum, sowie
- Hosten der Workloads am Edge.
Um bestimmen zu können, was die beste Infrastruktur für selbst gehostete KI-Workloads ist, hilft es sich anzuschauen, wie KI in Unternehmen überhaupt genutzt wird. Dabei fällt auf, dass viele KI Workloads eingesetzt werden, um Entscheidungen vor Ort in Echtzeit treffen zu können, Abläufe zu automatisieren oder Videostreams zu analysieren. Diese Natur von KI-Workloads ändert die Anforderungen an die Infrastruktur dramatisch.
Künstliche Intelligenz in der Cloud
Cloud-Strategien, und insbesondere Cloud-First-Strategien, bringen beim Hosten von Workloads hinsichtlich Kosten und Kontrolle bekannterweise zahlreiche Herausforderungen mit sich. Doch wenn es um KI geht, ist die höhere Latenz der Cloud ein fast unlösbares Problem. Autonome Fahrzeuge können beispielsweise nicht auf die Entscheidung eines in der Cloud gehosteten KI-Modells warten, um einen Fußgänger zu erkennen. Dies muss in Echtzeit im Auto selbst geschehen.
Neben der höheren Latenz sind auch Ausfälle der Cloud generell problematisch und stellen in vielen Szenarien ein inakzeptables Risiko dar. KI-Workloads, und speziell solche, die eine Echtzeitverarbeitung erfordern, können sich den Roundtrip in die Cloud einfach nicht leisten. Sie müssen dort ausgeführt werden, wo die Daten generiert werden, also in Fabrikhallen, Filialen, Geschäften und Büros.
Näher als die Public Cloud wäre, die Private Cloud im eigenen Rechenzentrum. Doch auch diese Infrastruktur ist für KI-Workloads meist ungeeignet, da sie nicht für Remote-Umgebungen oder Umgebungen mit begrenzten Ressourcen ausgelegt sind. Traditionelle Stacks sind darüber hinaus zu komplex, verbrauchen zu viel Strom und sind zu teuer, um in großem Maßstab eingesetzt zu werden
KI am Edge
Cloud-Infrastrukturen in der Cloud oder im zentralen Rechenzentrum eigenen sich offenbar nicht sehr gut für das Hosten von KI-Workloads am Edge. Mit der Verlagerung von KI-Workloads an den Netzwerkrand stellt sich natürlich die Frage, ob Workloads mit einer lokalen Edge-Infrastruktur besser und effizienter gehostet werden können. Und tatsächlich erhält der Ansatz mit der Ankunft von KI-Workloads neuen Rückenwind. Denn CPUs sind mehr als fähig, reale Inferenzmodelle am Edge auszuführen, insbesondere wenn sie lokalisiert ist und das Training in der Cloud erfolgt.
Es werden keine mit GPUs vollgepackten Racks benötigt, sondern lediglich Infrastruktur die leicht, widerstandsfähig und für die jeweilige Aufgabe richtig dimensioniert ist. Die Lösung liegt auf der Hand: Die ideale Infrastruktur für KI-Workloads am Unternehmensrand wäre eine speziell für das Edge entwickelte hyperkonvergente Infrastruktur (HCI). Edge-Computing mit HCI ist beileibe auch nichts Neues und hat ist schon seit Langem in vielen Umgebungen im Einsatz. Erhältliche Lösungen sind kompakt, zuverlässig stromsparend und einfach zu verwalten und machen es möglich, KI dort einzusetzen, wo die Daten generiert werden.
Nicht die Kosten sind das Problem, sondern die Komplexität
Ein weit verbreiteter Vorbehalt ist, dass solche Edge-Lösungen sehr teuer sind. Das mag in der Vergangenheit gestimmt haben, ist heute aber nicht mehr der Fall. Eine vollständig redundante Konfiguration mit hoher Verfügbarkeit kostet heute oft weniger als ein Monat vergleichbarer Cloud-Dienste.
Die eigentliche Hürde sind jedoch nicht die Kosten, sondern die Komplexität. IT-Teams sind bereits ausgelastet. Die meisten Teams wären nicht in der Lage, Dutzende oder Hunderte neuer Remote-Standorte mit der gleichen Sorgfalt zu verwalten wie ein zentralisiertes Rechenzentrum. Aus diesem Grund muss moderne Edge-Infrastruktur auf Einfachheit und Autonomie ausgelegt sein. Sie sollte Plug-and-Play-fähig, aus der Ferne verwaltbar und ausfallsicher sein.
Da die Datenverarbeitung immer dezentraler wird und KI sich immer mehr dem Edge nähert, werden diejenigen Plattformen am erfolgreichsten sein, die den IT-Betrieb vereinfachen, anstatt ihn zu verkomplizieren. IT-Führungskräfte benötigen kein weiteres System, das sie betreuen müssen. Sie brauchen Lösungen, die mit minimalem Aufwand maximale Ergebnisse liefern.
Die richtige Infrastruktur wählen
CIOs und IT-Manager wissen, dass sie beim Thema KI liefern müssen. Das Geschäft verlangt schnellere Innovationen, und KI wird für die meisten Unternehmen zu einer Notwendigkeit, um im Wettbewerb mithalten zu können. Das bedeutet jedoch nicht zwangsläufig, dass hohe Budgets notwendig werden. Anstatt die Strategien von Hyperscalern zu kopieren, sollten Unternehmen sich bei der Planung ihrer KI-Infrastruktur folgende drei Fragen stellen:
- Welche KI-Anwendungen müssen näher am Netzwerkrand sein?
- Welche Probleme kann es in Bezug auf Latenz, Ausfallsicherheit oder Kosten geben?
- Wie können wir KI ermöglichen, ohne unseren gesamten Stack neu aufzubauen?
Die Antworten variieren je nach Unternehmen. In vielen Fällen legen die Antworten jedoch nahe, die Infrastruktur zu überdenken, und bereits vorhandene Budgets einzusetzen, anstatt mehr Budget einzuplanen. Google, Microsoft, Meta und Amazon haben gute Gründe für ihre sehr hohen Investitionen in KI. Das bedeutet jedoch nicht, dass normale Unternehmen auch Rekordbudgets für ihre KI-Strategie einplanen müssen.
Mit hyperkonvergenter Infrastruktur können Unternehmen Intelligenz näher an den Ort der Entscheidungsfindung bringen und erzielen bessere Leistung und höhere Ausfallsicherheit bei geringeren Kosten, verglichen mit der Cloud oder dem traditionellen Rechenzentrum. KI braucht somit keine höheren Budgets. Sie braucht nur eine bessere Grundlage.
Tobias Pföhler, StorMagic.