Pressemitteilung von Docker

Docker bringt mit Neo4j, LangChain und Ollama neuen GenAI-Stack für Entwickler heraus


IT, NewMedia & Software

Docker bringt mit Neo4j, LangChain und Ollama   neuen GenAI-Stack für Entwickler herausLos Angeles / München, 09. Oktober 2023 - Auf der jährlichen globalen Entwicklerkonferenz DockerCon hat Docker, Inc. gemeinsam mit seinen Partnern Neo4j , LangChain und Ollama einen neuen GenAI-Stack angekündigt. Dieser soll Entwicklern helfen, innerhalb von Minuten die Arbeit mit generativen KI-Anwendungen zu beginnen. Der GenAI-Stack besteht aus Large Language Models (LLMs) von Ollama, Vektor- und Graphdatenbanken von Neo4j und dem LangChain-Framework. Er ist vorkonfiguriert, bereit zum Programmieren und sicher. Damit entfällt die umständliche Suche nach passenden Technologien aus verschiedenen Quellen und ihre Konfiguration. Docker kündigte auch sein erstes KI-gestütztes Produkt an: Docker AI .

"Entwickler sind begeistern von den Möglichkeiten, die GenAI bietet. Aber die Geschwindigkeit des Wandels, die Zahl der Anbieter und die großen Unterschiede zwischen den Technologie-Stacks machen es schwierig zu entscheiden, wo und wie man anfangen soll", sagte Scott Johnston, CEO von Docker. "Die Ankündigung beseitigt dieses Dilemma. Sie bietet Entwicklern einen schnellen und sicheren Einstieg, mit dem sie die Docker-Tools, -Inhalte und -Dienste, die sie bereits kennen und lieben, zusammen mit Partnertechnologien auf dem neuesten Stand der GenAI-App-Entwicklung nutzen können."

Der GenAI-Stack, der jetzt im Learning Center in Docker Desktop und als Repository unter https://github.com/docker/genai-stack verfügbar ist, adressiert häufige GenAI-Anwendungsfälle und verwendet vertrauenswürdige Open-Source-Inhalte des Docker Hubs. Er gehört zu einer Reihe von neuen KI/ML-Fähigkeiten, Inhalten und Partnerschaften, die von Docker angekündigt wurden, um Entwicklern zu helfen, schnell und sicher die Vorteile von KI/ML in ihren Anwendungen zu nutzen. Die Komponenten umfassen:

- Vorkonfigurierte Open-Source-LLMs wie Llama 2, Code Llama, Mistral oder private Modelle wie GPT-3.5 und GPT-4 von OpenAI
- Unterstützung von Ollama für Entwickler für den lokalen Start mit Open-Source-LLMs
- Neo4j als Standarddatenbank für Graph und native Vektorsuche, die explizite und implizite Muster und Beziehungen in Daten aufdeckt, KI/ML-Modelle schneller und genauer macht und als Langzeitspeicher für diese Modelle dient;
- Neo4j Knowledge Graphen, die als Wissensbasis für LLMs dienen - für
genauere GenAI-Vorhersagen und -Ergebnisse
- LangChain-Orchestrierung zwischen dem LLM, der Anwendung und der Datenbank mit Vektorindex und als Rahmen für die Entwicklung kontextbezogener, schlussfolgernder Anwendungen auf Grundlage von LLMs
- eine Reihe von unterstützenden Tools, Code-Vorlagen, Anleitungen und bewährten GenAI-Verfahren

Sofort einsatzbereit, bietet der GenAI-Stack zahlreiche Funktionen, wie zum Beispiel müheloses Laden von Daten und Erstellung von Vektorindizes. So können Entwickler Daten nahtlos importieren, Vektorindizes erstellen, Fragen und Antworten einbetten und im Vektorindex speichern. Ihnen stehen erweiterte Abfragen und die Anreicherung von Ergebnissen zur Verfügung. Dabei können sowohl Daten zusammengefasst als auch Suchresultate durch flexible Knowledge Graphen dargestellt werden. Die Nutzer können auch verschiedene Antworten in unterschiedlichen Formaten generieren, wie zum Beispiel Aufzählungslisten, Gedankengänge, GitHub-Probleme, PDFs, Gedichte und mehr. Darüber hinaus können Entwickler die Ergebnisse zwischen LLMs allein, LLMs mit Vektor und LLMs mit Vektor- und Knowledge-Graph-Integration vergleichen.

James Governor, Hauptanalyst und Mitbegründer, RedMonk
"In diesem Jahr hat sich alles verändert, denn KI wurde von einem Bereich für Spezialisten zu etwas, das viele von uns täglich nutzen. Die Tool-Landschaft ist jedoch sehr fragmentiert, und es braucht ein großartiges Paket, damit unter Entwicklern wirklich eine breite Akzeptanz für die Erstellung von KI-gesteuerten Anwendungen in Gang kommt. Der GenAI-Stack von Docker, Neo4j, LangChain und Ollama bietet die Art konsistenter, vereinheitlichter Erfahrung, die Entwickler mit neuen Tools und Methoden produktiv macht. Damit können Mainstream-Entwickler KI nicht nur nutzen, sondern auch neue Apps damit entwickeln."

Emil Eifrem, Mitgründer und CEO, Neo4j
"Die treibende Kraft unserer gemeinsamen Bemühungen war die Mission, Entwicklern die Möglichkeit zu geben, sehr einfach GenAI-gestützte Anwendungen zu erstellen und GenAI-Funktionen zu bestehenden Anwendungen hinzuzufügen. Wir freuen uns sehr über die Möglichkeiten, die sich dadurch für Millionen von Entwicklern ergeben."

Harrison Chase, Mitgründer und CEO, LangChain
"Wir sind alle hier, um Teams dabei zu helfen, die Lücke zwischen der magischen Benutzererfahrung zu schließen, die GenAI ermöglicht, und der Arbeit, die nötig ist, um diese Erfahrung zu erreichen. Dies ist ein fantastischer Schritt in diese Richtung."

Jeffrey Morgan, Erfinder von Ollama
"Docker hat die Art und Weise verändert, wie Anwendungen entwickelt und bereitgestellt werden. Ich freue mich darauf, mit der Entwickler-Community von Docker zusammenzuarbeiten, um die nächste Generation von Anwendungen mit Fokus auf KI zu entwickeln."

Firmenkontakt:

Docker
. .
. .
Deutschland
.

https://www.docker.com

Pressekontakt:

Neo4j Media Hotline
https://neo4j.com/news/ .
Lucy Turpin Communications
.
http://www.lucyturpin.de


Diese Pressemitteilung wurde über PR-Gateway veröffentlicht.

Für den Inhalt der Pressemeldung/News ist allein der Verfasser verantwortlich. Newsfenster.de distanziert sich ausdrücklich von den Inhalten Dritter und macht sich diese nicht zu eigen.

Weitere Artikel in dieser Kategorie
26.11.2024 | AI Bilder Agentur
Hochwertige KI-Bilder für Webseiten
S-IMG
Über Newsfenster.de
seit: Januar 2011
PM (Pressemitteilung) heute: 71
PM gesamt: 419.167
PM aufgerufen: 71.087.710