Pressemitteilung von F5

F5 verbessert Leistung, Mandantenfähigkeit und Sicherheit für KI mit NVIDIA


16.06.2025 / ID: 429364
IT, NewMedia & Software

- Sesterce-Validierung für gemeinsame Innovation von F5 und NVIDIA
- Unterstützt Kunden bei KI-basierter Bereitstellung von Anwendungen

München, 16. Juni 2025 - F5 hat auf der NVIDIA GTC Paris 2025 neue Funktionen für F5 BIG-IP Next für Kubernetes vorgestellt, die mit NVIDIA BlueField-3 DPUs und dem NVIDIA DOCA Software-Framework beschleunigt werden. Der Kunde Sesterce hat sie bereits validiert. Sesterce ist ein führender europäischer Anbieter, der sich auf Infrastrukturen der nächsten Generation und souveräne KI spezialisiert hat, die Anforderungen von beschleunigtem Computing und künstlicher Intelligenz erfüllen.

BIG-IP Next für Kubernetes ist eine Erweiterung der F5 Application Delivery and Security Platform . Die Lösung bietet hochleistungsfähiges Traffic-Management und Sicherheit für große KI-Infrastrukturen, die eine hohe Effizienz, Kontrolle und Leistung für KI-Anwendungen ermöglichen. Diese Vorteile wurden bereits mit der allgemeinen Verfügbarkeit Anfang des Jahres vorgestellt. Zudem hat Sesterce nun die Validierung der Lösung von F5 und NVIDIA in einer Reihe von wichtigen Bereichen erfolgreich abgeschlossen, unter anderem:

- Verbesserte Leistung, Mehrmandantenfähigkeit und Sicherheit, um Cloud-Anforderungen zu erfüllen, mit einer anfänglichen Verbesserung der GPU-Auslastung um 20 Prozent.
- Integration mit NVIDIA Dynamo und KV Cache Manager zur Reduzierung der Latenzzeit für Inferenzsysteme großer Sprachmodelle (LLM) sowie für die Optimierung von GPUs und Speicherressourcen.
- Intelligentes LLM-Routing auf BlueField DPUs, das effektiv mit NVIDIA NIM -Microservices für Workloads läuft, die mehrere Modelle erfordern, und Kunden das optimale verfügbare Modell bietet.
- Skalierung und Sicherung des Model Context Protocol (MCP), einschließlich Reverse-Proxy-Funktionen und Schutzmechanismen für skalierbare und sichere LLMs, damit Kunden die Leistung von MCP-Servern schnell und sicher nutzen können.
- Leistungsstarke Datenprogrammierbarkeit mit robusten F5 iRules -Funktionen ermöglicht eine schnelle Anpassung zur Unterstützung von KI-Anwendungen und Bewätigung sich verändernder Sicherheitsanforderungen.

"Die Integration von F5- und NVIDIA-Lösungen war schon interessant, bevor wir überhaupt Tests durchgeführt haben", sagt Youssef El Manssouri, CEO und Mitbegründer von Sesterce. "Unsere Ergebnisse belegen die Vorteile des dynamischen Lastausgleichs von F5 mit hochvolumigem Kubernetes-Ingress und Egress in KI-Umgebungen. Durch diesen Ansatz können wir den Datenverkehr effizienter verteilen und die Nutzung unserer GPUs optimieren, um unseren Kunden einen zusätzlichen und einzigartigen Wert zu bieten. Wir freuen uns über die Unterstützung von F5 für eine wachsende Zahl von NVIDIA-Anwendungsfällen, einschließlich erweiterter Mandantenfähigkeit, sowie auf weitere Innovationen der Unternehmen zur Unterstützung der nächsten Generation von KI-Infrastrukturen."

Zu den Highlights der neuen Lösungsfunktionen gehören:

1) LLM-Routing und dynamischer Lastausgleich mit BIG-IP Next für Kubernetes

Das fortschrittliche Datenverkehrsmanagement von F5 stellt sicher, dass Abfragen an das optimal geeignete LLM gesendet werden: Einfache KI-bezogene Aufgaben werden an kostengünstigere, schlankere LLMs weitergeleitet, während fortschrittliche Modelle für komplexe Abfragen reserviert sind. So lässt sich die Qualität steigern und die Kundenerfahrung deutlich verbessern. Dies reduziert die Latenz und die Zeit bis zum ersten Token.

"Unternehmen setzen zunehmend mehrere LLMs ein, um fortschrittliche KI-Lösungen zu unterstützen. Aber das Routing und die Klassifizierung des LLM-Verkehrs kann sehr rechenintensiv sein. Das beeinträchtigt die Leistung sowie das Benutzererlebnis", erklärt Kunal Anand, Chief Innovation Officer bei F5. "Durch die Programmierung der Routing-Logik direkt auf den NVIDIA BlueField-3 DPUs ist F5 BIG-IP Next für Kubernetes der effizienteste Ansatz für die Bereitstellung und Sicherung von LLM-Datenverkehr. Doch das ist erst der Anfang. Wir freuen uns auf eine engere Zusammenarbeit mit NVIDIA."

2) Optimierte GPUs für verteilte KI-Inferenz durch Integration von NVIDIA Dynamo und KV Cache

Mit NVIDIA Dynamo wurde ein zusätzliches Framework für die Bereitstellung generativer KI- und Schlussfolgerungsmodelle in großen verteilten Umgebungen eingeführt. Es reduziert die Komplexität der KI-Inferenz in verteilten Umgebungen durch die Orchestrierung von Aufgaben wie Scheduling, Routing und Speichermanagement. Dies gewährleistet einen nahtlosen Betrieb unter dynamischen Arbeitslasten. Die Verlagerung bestimmter Prozesse von CPUs auf BlueField DPUs ist einer der wichtigsten Vorteile der kombinierten Lösung von F5 und NVIDIA.

Integriert mit F5 kann die Dynamo KV Cache Manager-Funktion Anfragen intelligent auf Basis der Kapazität weiterleiten und mit Key-Value (KV) Caching generative KI-Anwendungsfälle beschleunigen. Dabei werden Prozesse auf der Grundlage von Informationen aus früheren Abläufen beschleunigt, anstatt ressourcenintensive Neuberechnungen durchzuführen. Unternehmen, die KV-Cache-Daten speichern und wiederverwenden, sparen so einen signifikanten Kostenanteil im Vergleich zur Verwendung von GPU-Speichern.

"BIG-IP Next für Kubernetes - beschleunigt durch NVIDIA BlueField-3 DPUs - bietet Unternehmen und Service-Providern einen zentralen Kontrollpunkt für das effiziente Routing des Datenverkehrs zu KI-Fabriken, um die GPU-Effizienz zu optimieren und den KI-Verkehr für Dateningestion, Modelltraining, Inferenz, RAG und agentenbasierte KI zu beschleunigen", so Ash Bhalgat, Senior Director of AI Networking and Security Solutions, Ecosystem and Marketing bei NVIDIA. "Darüber hinaus bieten die Unterstützung von F5 für Multimandantenfähigkeit und die verbesserte Programmierbarkeit mit iRules eine Plattform, welche für die kontinuierliche Integration und Funktionserweiterung wie die Unterstützung von NVIDIA Dynamo Distributed KV Cache Manager geeignet ist."

3) Verbesserter Schutz für MCP-Server mit F5 und NVIDIA

Das Model Context Protocol (MCP) ist ein von Anthropic entwickeltes offenes Protokoll, das standardisiert, wie Anwendungen für LLMs Kontext bereitstellen. Durch den Einsatz der kombinierten Lösung von F5 und NVIDIA vor MCP-Servern kann die F5-Technologie als Reverse Proxy dienen und die Sicherheitsfunktionen für MCP-Lösungen und die von ihnen unterstützten LLMs verbessern. Darüber hinaus fördert die vollständige Datenprogrammierbarkeit durch F5 iRules die schnelle Anpassung an sich schnell verändernde KI-Protokollanforderungen und bietet zusätzlichen Schutz vor aufkommenden Cybersicherheitsrisiken für höhere Ausfallsicherheit.

Die neuen Funktionen von F5 BIG-IP Next für Kubernetes intensivieren die Partnerschaft von F5 und NVIDIA. Passend dazu hat F5 kürzlich die neue Version F5 BIG-IP Next Cloud-Native Network Functions (CNF) 2.0 zur Optimierung von Apps und APIs in Kubernetes-Umgebungen vorgestellt. Zudem wird die strategische Zusammenarbeit mit Red Hat signifikant ausgebaut.

Weitere Informationen zur Technologie und den Vorteilen ihrer Bereitstellung finden Sie unter www.f5.com sowie in einem begleitenden Blog von F5 .

Firmenkontakt:

F5
Lehrer-Wirth-Straße
81829 München
Deutschland
089943830

http://www.f5.com

Pressekontakt:

Fink & Fuchs AG
Rudi Siegl
Wiesbaden
Berliner Straße 164
0895897870

Diese Pressemitteilung wurde über PR-Gateway veröffentlicht.

Für den Inhalt der Pressemeldung/News ist allein der Verfasser verantwortlich. Newsfenster.de distanziert sich ausdrücklich von den Inhalten Dritter und macht sich diese nicht zu eigen.

Weitere Artikel in dieser Kategorie
16.06.2025 | Anna Jacobs
Fashion ERP
S-IMG
Über Newsfenster.de
seit: Januar 2011
PM (Pressemitteilung) heute: 62
PM gesamt: 427.084
PM aufgerufen: 72.469.653