Pressemitteilung von Vultr

Vultr treibt globale KI-Cloud-Inferenz mit AMD Instinct™ MI300X voran


PC, Information & Telekommunikation

Frankfurt, 15. Oktober 2024 - Vultr, die weltweit größte eigenständig finanzierte Cloud-Computing-Plattform, stellt ab sofort AMD Instinct™ MI300X Beschleuniger und die Open Software ROCm™ in seiner Composable-Cloud-Infrastruktur bereit.

Das Zusammenspiel zwischen der Composable-Cloud-Infrastruktur von Vultr und der neuesten AMD Silizium-Architektur eröffnet neue Möglichkeiten für GPU-beschleunigte Workloads - vom Rechenzentrum bis zur Peripherie. So wird die KI-Cloud-Inferenz vorangetrieben. Denn vortrainierte Modelle sind über die Cloud-Infrastruktur direkt verfügbar und können mit Daten der Unternehmen direkt arbeiten, um Erkenntnisse zu gewinnen.

"Ein offenes Ökosystem bildet die Basis, um Innovationen voranzutreiben", sagt J.J. Kardwell, CEO von Vultr. "Die Zukunft der KI-Workloads in Unternehmen liegt in offenen Umgebungen, die flexibel, skalierbar und sicher sind. Mit den AMD Beschleunigern bieten wir unseren Kunden ein gutes Preis-Leistungs-Verhältnis. Die Ausgewogenheit zwischen einem hohen Speicherbedarf und einem niedrigen Stromverbrauch unterstützt Nachhaltigkeitsziele und ermöglicht unseren Kunden, Innovation und Wachstum durch KI effizient voranzutreiben."

Aufbau einer kompatiblen Cloud
Mit der offenen AMD ROCm™ Software und der Cloud-Plattform von Vultr haben Unternehmen Zugang zu einer branchenführenden Umgebung, um KI-Lösungen zu entwickeln und zu betreiben. Die Offenheit der AMD-Architektur und der Vultr-Infrastruktur ermöglicht es, auf Tausende von quelloffenen, vortrainierten Modellen und Frameworks mit Drop-in-Code zuzugreifen. So schaffen Unternehmen eine optimierte Umgebung für ihre KI-Entwicklungen, auf der sie Projekte schnell vorantreiben können.

Die AMD-Architektur auf der Vultr-Infrastruktur wurde für Workloads der nächsten Generation entwickelt und ermöglicht die Cloud-native Orchestrierung aller KI-Ressourcen. Die AMD Instinct™ Beschleuniger und ROCm™ Software-Management-Tools lassen sich nahtlos in die Vultr Kubernetes Engine for Cloud GPU integrieren. Dadurch ist es möglich, GPU-beschleunigte Kubernetes-Cluster zu erstellen, die ressourcenintensivste Workloads an jedem beliebigen Ort weltweit ausführen können. Diese Plattformfunktionen geben Entwicklern und Innovatoren die Ressourcen an die Hand, um anspruchsvolle KI- und Machine-Learning-Lösungen für sehr komplexe Business-Herausforderungen zu entwickeln.

Vorteile der Partnerschaft von AMD und Vultr:
-Verbessertes Preis-Leistungs-Verhältnis: Das leistungsfähige Cloud Computing von Vultr, beschleunigt durch AMD GPUs, bietet eine hohe Rechenleistung für anspruchsvolle Workloads bei gleichzeitiger Kosteneffizienz.
-Skalierbare Rechenleistung und optimiertes Workload-Management: Die skalierbare Cloud-Infrastruktur von Vultr in Kombination mit den fortschrittlichen Verarbeitungsfunktionen von AMD ermöglicht es Unternehmen, ihre Rechenressourcen nahtlos an steigende Anforderungen anzupassen.
-Schnellere Umsetzung von Innovationen in F&E: Die Cloud-Infrastruktur von Vultr bietet die Rechenleistung und Skalierbarkeit, die Entwickler benötigen, um AMD Instinct GPUs, AMD ROCm™ Open Software und das umfangreiche Partner-Ökosystem zu nutzen. So lassen sich komplexe Probleme schneller entdecken und Innovationen innerhalb kürzester Zeit umsetzen.
-Optimiert für KI-Inferenz: Die Plattform von Vultr ist für KI-Inferenz mit AMD Instinct™ MI300X GPUs optimiert. Diese ermöglichen eine schnellere, skalierbare und energieeffiziente Verarbeitung von KI-Modellen. Das führt zu geringeren Latenzzeiten und einem höheren Durchsatz.
-Nachhaltiges Computing: Die umweltfreundliche Cloud-Infrastruktur von Vultr bietet Anwendern ein energieeffizientes und nachhaltiges Computing für große KI-Operations.

"Wir sind stolz darauf, eng mit Vultr zusammenzuarbeiten, da ihre Cloud-Plattform darauf ausgelegt ist, hochleistungsfähige KI-Trainings- und Inferenzaufgaben zu bewältigen. Das führt zu einer verbesserten Gesamteffizienz", erklärt Negin Oliver, Corporate Vice President of Business Development, Data Center GPU Business Unit bei AMD. "Durch den kombinierten Einsatz von AMD Instinct MI300X Beschleunigern und der offenen ROCm™ Software für ihre neuesten Implementierungen profitieren die Kunden von Vultr von einem System, das ein breites Spektrum an KI-intensiven Workloads bewältigt."

Mehr über die Composable Cloud-Lösungen von Vultr erfahren Sie hier.

Weitere Informationen über den AMD Instinct™ MI300X Beschleuniger finden Sie hier .

Firmenkontakt:

Vultr
- -
- Frankfurt
Deutschland
-

https://www.vultr.com/

Pressekontakt:

Fink & Fuchs AG
Berliner Straße 164
65205 Wiesbaden
0611-74131-16
finkfuchs.de


Diese Pressemitteilung wurde über PR-Gateway veröffentlicht.

Für den Inhalt der Pressemeldung/News ist allein der Verfasser verantwortlich. Newsfenster.de distanziert sich ausdrücklich von den Inhalten Dritter und macht sich diese nicht zu eigen.

Weitere Artikel von Vultr
22.08.2024 | Vultr
Vultr startet Industry Cloud
Weitere Artikel in dieser Kategorie
15.10.2024 | Galileo Group AG
Galileo Group auf dem DSAG-Jahreskongress 2024
10.10.2024 | Galileo Group AG
Galileo Group und Tricentis kooperieren
S-IMG
Über Newsfenster.de
seit: Januar 2011
PM (Pressemitteilung) heute: 4
PM gesamt: 417.236
PM aufgerufen: 70.778.754