MarketplaceCommunityDEENDEENProdukteCloud ServicesRoadmapRelease NotesLeistungsbeschreibungZertifikate und TestateManaged ServicesVorteileSicherheit/DSGVOSouveränitätNachhaltigkeitOpenStackMarktführerBusiness NavigatorPreisePreismodelleComputing & ContainerSpeicherNetzwerkDatenbank & AnalyseSicherheitManagement & ApplikationPreisrechnerLösungenBranchenGesundheitswesenÖffentlicher SektorWissenschaft & ForschungAutomotiveMedienunternehmenEinzelhandelAnwendungsfälleKünstliche IntelligenzHigh Performance ComputingBig Data & AnalyticsInternet of ThingsDisaster RecoveryData StorageKomplettlösungenCloud-Lösungen TelekomCloud-Lösungen PartnerSwiss Open Telekom CloudReferenzkundenPartnerCIRCLE PartnerTECH PartnerPartner werdenAcademyTrainings & ZertifizierungenEssentials TrainingFundamentals TrainingPractitioner Online-TrainingArchitect TrainingZertifizierungenCommunityCommunity BlogsCommunity EventsBibliothekStudien und WhitepaperWebinareBusiness NavigatorMarketplaceSupportExperten-SupportKI-ChatbotShared ResponsibilityRichtlinien für Sicherheitstests (Penetrationstests)Open Telekom Cloud AppTools zur SelbsthilfeErste SchritteTutorialStatus DashboardWechsel des DatenverarbeitungsdienstesFAQTechnische DokumentationNewsBlogMessen & EventsFachartikelPresseanfragenRadio OTCMarketplaceCommunity

0800 3304477 24 Stunden am Tag, 7 Tage die Woche

E-Mail schreiben

Jetzt starten und 250 € Startguthaben sichern
ProdukteCloud ServicesManaged ServicesVorteileBusiness NavigatorPreisePreismodellePreisrechnerLösungenBranchenAnwendungsfälleKomplettlösungenSwiss Open Telekom CloudReferenzkundenPartnerCIRCLE PartnerTECH PartnerPartner werdenAcademyTrainings & ZertifizierungenCommunityBibliothekBusiness NavigatorMarketplaceSupportExperten-SupportTools zur SelbsthilfeTechnische DokumentationNewsBlogMessen & EventsFachartikelPresseanfragenRadio OTC
  • 0800 330447724 Stunden am Tag, 7 Tage die Woche
  • E-Mail schreiben
Jetzt starten und 250 € Startguthaben sichern

BWI Hackathon nutzt souveräne GPU-Power mit NVIDIA H100 und L4

von Redaktion
BWI Hackathon: Pokale
Die Pokale beim BWI Hackathon
 

In diesem Artikel lesen Sie, 

  • wofür die Bundeswehr Künstliche Intelligenz nutzt,
  • wie schnell Prototypen im Rahmen eines Hackathons entstehen können
  • und warum GPUs aus der Cloud dafür wichtig sind.


In nur fünf Tagen von der Idee zum Prototyp: Beim gemeinsamen Data Analytics Hackathon von BWI und Bundeswehr entstanden KI-basierte Lösungen für konkrete Anforderungen der Bundeswehr – mit GPU-Power aus der Open Telekom Cloud. 

Der Hackathon – die Aufgabenstellung

Ende November lud die BWI, der IT-Dienstleister der Bundeswehr, zu ihrem siebten BWI Data Analytics Hackathon in die Bonner Aumühle. Vor Ort und Remote kamen mehr als 100 „Hackathonians“ in 20 Teams zusammen: Sie suchten innerhalb von fünf Tagen Lösungen für vier von BWI und Bundeswehr ausgewählte Herausforderungen, die mehr oder weniger intensiven KI-Einsatz erfordern. Die Aufgaben:

  1. Wargaming – Sprache-zu-Text-Analyse für militärische Entscheidungsprozesse
  2. OSINT – Automatisches Lagebild aus Social Media, Geo- und offenen Datenquellen
  3. Weltraumwetter – Analyse von Sonnenstürmen und magnetischen Impulsen anhand von Satellitendaten
  4. Software Engineering – Entwicklung einer Offline-Kartenlösung ähnlich Google Maps für die Bundeswehr
BWI Hackathon: Eine Präsentation
Eine Präsentation beim BWI Hackathon

Ideen treffen auf eine leistungsfähige Cloud-Plattform

„Frei Schnauze drauf los coden, keine Regeltermine, keine Meetings“: Das richtige Mindset ist für einen Hackathon das Wichtigste. Doch für einen erfolgreichen Hackathon braucht es nicht nur kreative Köpfe und spannende Challenges, sondern auch eine leistungsfähige, stabile und flexible technische Plattform, auf der alle Teams konzentriert arbeiten können.

Genau damit unterstützten die Open Telekom Cloud und das Innovation Lab der T-Systems onsite den diesjährigen BWI Hackathon tatkräftig (mehr dazu hier). ​Vom 24. bis 28. November konnten die Teilnehmer ihre Ideen auf einer eigens bereitgestellten GPU-Umgebung entwickeln und testen. Insgesamt kamen 23 GPU-Instanzen mit NVIDIA L4 und H100 zum Einsatz, um unterschiedlichste AI & Big Data Workflows sowie Use Cases performant abzubilden.

Robert Renz und Florian Krumbholz aus dem Innovation Lab der T-Systems onsite waren persönlich vor Ort, schauten sich die Projekte und Prototypen an. Sie unterstützten die Teilnehmenden bei Fragen und waren Sparringspartner für fachliche Deep Dives sowie Feedback. „Es war großartig zu sehen, wie schnell aus Ideen konkrete, lauffähige Lösungen wurden“, resümieren die beiden. „Auch in Zukunft werden wir mit souveräner Infrastruktur, einem breiten GPU-Portfolio und dem passenden Know-how bereitstehen, um Innovation mit den notwendigen Cloud-Ressourcen zu fördern“.  

Ähnlich wie bei den Challenges des Hackathon setzt das Innovation Lab der T-Systems onsite Projekte im Minimum-Viable-Product Ansatz um: Nach kurzer Anforderungsanalyse gemeinsam mit dem Kunden wird ein erster, lauffähiger Prototyp nach nur kurzer Zeit zur Verfügung gestellt, um darauf weitere Iterationen aufzubauen und Ideen greifbar zu machen. Die MVPs sind meist eine Kombination aus Cloud, IoT und Custom Software Development zur Erstellung von intelligenten und innovativen Lösungen.

GPU-Power für den Hackathon

Die ECS Compute-Flavors mit NVIDIA L4-GPUs (pi5e) und H100-GPUs (p5s) sind zentrale Bausteine im GPU-Portfolio der Open Telekom Cloud. Während die L4-basierten Instanzen besonders effizient für Inferenz, kleinere bis mittlere Modelle und multimodale Workloads sind, liefern die H100-basierten Flavors die notwendige Rechenleistung für rechenintensive Deep-Learning-Workloads und fortgeschrittenes Fine-Tuning. Die GPU-Flavors mit NVIDIA L4 (pi5e) und H100 (p5s) bilden die Grundlage für viele KI-Anwendungsfälle in der Open Telekom Cloud – vom schnellen Prototyp bis zur skalierbaren Produktivlösung. 

NVIDIA L4 im Detail (pi5e)

Die NVIDIA L4-GPUs sind auf effiziente AI-Inferenz und Videoverarbeitung optimiert und eignen sich besonders für Anwendungen, bei denen viele Anfragen mit geringer Latenz beantwortet werden müssen. Im Hackathon-Kontext ist das ideal für Chatbots, RAG-Szenarien, Empfehlungssysteme oder Bild- und Textanalyse, bei denen es auf Durchsatz und Kostenoptimierung ankommt. 

  1. Architecture: Ada Lovelace
  2. CUDA cores: 7,424
  3. Memory: 24 GB GDDR6 mit 300-384 GB/s Bandbreite

NVIDIA H100 im Detail (p5s)

Die NVIDIA H100-GPUs zählen aktuell zu den leistungsfähigsten GPU-Beschleunigern für generative KI und anspruchsvolle Deep-Learning-Modelle. Mit ihrer hohen Rechenleistung und speziell optimierten Funktionen für große Sprachmodelle und Transformer-Architekturen liefern sie die Basis für komplexes Training, Fine-Tuning oder sehr rechenintensive Inferenz. 

  1. Architecture: Hopper
  2. CUDA cores: 14,592
  3. Memory: 80 GB HBM3 mit bis zu 3.35 TB/s Bandbreite
 

Die GPU-Reise endet nicht …

Der Hackathon hat belegt: Mit ihren GPU-Angebot ist die Open Telekom Cloud up to date und ermöglicht KI-Innovationen. Unternehmen, die GPU-Ressourcen strategisch und über einen längeren Zeitraum nutzen wollen, können auf rabattierte 3-Jahres-Pakete zurückgreifen, um die Nutzungskosten zu senken. Doch die Open Telekom Cloud bleibt nicht stehen. Neue GPU-Angebote werfen schon ihre Schatten voraus.

Doppelte H100-Power: GPUs im Tandem

Anfang 2026 erweitert sie ihr GPU-Portfolio um den neuen p5e-Flavor, ausgestattet mit NVIDIA H100 NVLink. Diese Variante kombiniert zwei H100 Tensor Core GPUs über die Hochgeschwindigkeitsverbindung NVLink, um rechenintensive Workloads mit maximaler Skalierbarkeit und Bandbreite zu unterstützen. Mit NVLink werden die beiden GPUs innerhalb eines Systems direkt miteinander verbunden und erreichen dabei eine deutlich höhere Datenübertragungsrate als über den klassischen PCIe-Bus. So lassen sich KI-Modelle, Simulationen und Trainingsprozesse wesentlich schneller und effizienter ausführen. Besonders Anwendungen aus den Bereichen Generative AI, Large Language Models (LLMs) oder High-Performance Computing (HPC) profitieren von dieser Architektur.

Inferenz mit L4-Clustern

​Wie bereits beschrieben, eigenen sich NVIDIA L4 besonders für produktive Inferenz-Szenarien. Als Ergänzung für einzelne, besonders leistungsstarke GPUs führt die Open Telekom Cloud hierfür eine neue Architektur mit mehreren L4-GPUs in einem Hochverfügbarkeits-Cluster (HA-Cluster) ein – mit klaren Vorteilen für Skalierbarkeit, Stabilität und Lastverteilung. 

Durch das Zusammenspiel mehrerer L4-GPUs lassen sich Inferenz-Workloads horizontal skalieren. Anfragen können dynamisch über mehrere Instanzen verteilt werden, wodurch Engpässe vermieden und eine gleichmäßige Auslastung erreicht wird. Sollte eine GPU oder ein Knoten ausfallen, übernehmen andere Cluster-Knoten automatisch die Berechnung – ein entscheidender Faktor für unterbrechungsfreie KI-Services in produktiven Umgebungen. 

Diese Architektur eignet sich besonders für Latenz-kritische Anwendungen, wie Chatbots, Recommendation Engines oder Bildanalysen im Echtzeitbetrieb.


Diese Inhalte könnten Sie auch interessieren
 

Frau tippt auf Laptop, ein Diagramm mit Gitternetzkopf liegt über dem Bild

KI für Unternehmen – Potenziale, Hürden und Best Practices bei der Implementierung

Künstliche Intelligenz bietet Unternehmen bereits heute klare Vorteile. Wer jetzt gezielt in den Ausbau von KI-Kompetenzen investiert, verschafft sich einen entscheidenden Vorsprung.

 
Hände eines Mannes auf einer Laptop Tastatur, im Vordergrund des Bildes ein digitales Schloss in einer Cloud

Goldstandard in der Cloud-Branche: Open Telekom Cloud nach BSI C5:2020 und SOC 1, SOC 2, SOC 3 testiert

Die Open Telekom Cloud erfüllt die strengen Voraussetzungen der Cloud-Testate BSI C5:2020 sowie den SOC 1-, SOC 2- und SOC 3-Anforderungskatalog nach Typ II.

 
Symbolische Darstellung eines Cloud-Chips auf einer Leiterplatte mit digitalen Datenströmen.

Mehr Compute-Power ohne Zusatzkosten

Die neuen c9-Instanzen der Open Telekom Cloud bieten ab November 2025 dank Intel Xeon® 6900 CPUs deutlich mehr Rechenleistung ohne Aufpreis.

 

Die Open Telekom Cloud Community

Hier treffen sich Nutzer, Entwickler und Product Owner um sich zu helfen, auszutauschen und zu diskutieren.

Jetzt entdecken  

Kostenfreie Experten-Hotline

Unsere zertifizierten Cloud-Experten stehen Ihnen mit persönlichem Service zur Seite.

 0800 3304477 (aus Deutschland)

 +800 33044770 (aus dem Ausland)

 24 Stunden am Tag, 7 Tage die Woche

E-Mail schreiben

Unser Kunden-Service steht Ihnen per E-Mail-Support kostenlos zur Verfügung.

E-Mail schreiben 

AIssistant Cloudia

Unsere KI-gestützte Suche hilft bei Ihrem Cloud-Anliegen.