Nach der anfänglichen Erprobungsphase mit Künstlicher Intelligenz stehen zahlreiche Unternehmen vor wichtigen Entscheidungen. Sollten sie eigene Modelle entwickeln und trainieren oder lieber auf bereits vorhandene Lösungen zurückgreifen? Wo ist der optimale Ort für die Ausführung der KI-Modelle – in der Cloud, im firmeneigenen Rechenzentrum oder bei großen Cloud-Anbietern? Und wie lassen sich dabei Kosten, Sicherheit sowie Abhängigkeiten von einzelnen Dienstleistern effektiv steuern? Diese Fragestellungen bestimmen derzeit den Arbeitsalltag von IT-Teams und Fachabteilungen, die nicht nur KI-Anwendungen entwickeln, sondern auch stabil betreiben müssen. Über Red Hats Herangehensweise an diese Herausforderungen und zukünftige Entwicklungen sprachen wir mit Gregor von Jagow, Country Manager Germany bei Red Hat.
Viele Firmen stehen aktuell vor der Aufgabe, ihre Projekte rund um Generative AI (GenAI) und Large Language Models (LLM) sicher und effizient in den produktiven Betrieb zu überführen. Welche Lösungsansätze sind aus Ihrer Sicht entscheidend?
Es ist essenziell, leistungsstarke Open-Source-Technologien einzusetzen, die Transparenz gewährleisten sowie Interoperabilität und Unabhängigkeit fördern. Deshalb haben wir mit Red Hat AI eine Lösung entwickelt, die moderne Container- sowie Cloud-Technologien mit einem umfangreichen Ökosystem aus Tools und Modellen kombiniert. So erhalten Unternehmen alle nötigen Ressourcen zur Entwicklung, zum Training und letztlich zum Betrieb ihrer KI-Anwendungen – ohne sich an einen bestimmten Hyperscaler oder eine feste Infrastruktur binden zu müssen.
Zahlreiche Organisationen starten zunächst mit Pilotprojekten stoßen jedoch schnell auf Schwierigkeiten beim Skalieren. Wie unterstützt Red Hat dabei den Übergang vom Experiment zum stabilen Produktivbetrieb wirtschaftlich sinnvoll zu gestalten?
Pilotprojekte sind oft rasch eingerichtet; ihr Aufbau entspricht jedoch selten dem späteren Produktivbetrieb. Entscheidend ist ein systematisches Vorgehen: Unsere vorgefertigten Open-Source-Modelle ermöglichen erste Erfolge direkt am Anfang; diese können dann schrittweise durch eigene Daten weiterentwickelt werden. Parallel dazu bieten wir umfassende Trainingsressourcen sowie Schulungen an – so wird das notwendige Know-how aufgebaut, um Projekte sicher aus Testumgebungen herauszuführen hin zu produktiven Systemen inklusive einer durchdachten Hostingstrategie samt Inferenzservern. Dieses Vorgehen minimiert Reibungsverluste, beschleunigt den Weg zur Wertschöpfung („Time-to-Value“) und gewährleistet langfristige Innovationsfähigkeit.
Sie heben besonders die Bedeutung einer passenden Hostingstrategie sowie der Inferenz hervor – warum spielen gerade diese Aspekte eine so zentrale Rolle für den erfolgreichen Einsatz von KI-Lösungen? Wie unterstützt Red Hat hier konkret?
Im täglichen Betrieb entscheidet insbesondere die Inferenz – also das Ausführen bereits trainierter Modelle – maßgeblich über Kostenstruktur, Performance sowie Skalierbarkeit von KI-Systemen. Wer ausschließlich proprietäre Dienste nutzt läuft Gefahr steigender Kostenexplosionen oder Leistungseinbußen gegenüberzustehen. Unsere Open-Source-basierten Lösungen ermöglichen hingegen eine flexible Inferenz unabhängig vom Anbieter: Ob im eigenen Rechenzentrum („On-Premises“), in öffentlichen Clouds oder hybriden Umgebungen lässt sich Workload genau dort betreiben wo es am effizientesten ist dank containerbasierter Architektur . Das senkt nicht nur laufende Betriebskosten sondern stärkt auch unternehmerische Souveränität signifikant.
Wie sehen Sie generell die Zukunft des Themas Open Source bei Inferenzprozessen? Welche Rolle möchte Red Hat innerhalb dieses Ökosystems übernehmen?
Wir sind überzeugt davon dass ein offener Quellcode langfristig als Schlüssel dient für flexible & effiziente Nutzung von GenAI & LLMs . Eine ähnliche Entwicklung wie einst bei Linux scheint wahrscheinlich: Open Source könnte künftig als Rückgrat sämtlicher Inferenzlösungen etabliert sein – egal ob cloud-basiert , lokal betrieben oder hybrid . Die damit verbundene Wahlfreiheit steht auch im Fokus des kommenden Red Hat Summit 2025 in Darmstadt , wo wir praxisnah demonstrieren werden , wie Unternehmen Open Source erfolgreich für ihre Inferenzen einsetzen können . Unser Ziel geht weit über theoretische Diskussion hinaus : Wir wollen greifbare Innovation schaffen.
Nähere Informationen:
Red Hat AI: www.redhat.com/en/products/ai
Red Hat Blog: www.redhat.com/en/blog
Pressekontakt:
Debora von Scheliha
Leiterin Marketing Zentral-Europa
E-Mail: debora.vonscheliha@redhat.com