NVIDIA hat die AI Workbench eingeführt, einen kostenlosen und benutzerfreundlichen Manager für Entwicklungsumgebungen, der darauf ausgelegt ist, Data-Science-, Machine-Learning- (ML) und künstliche Intelligenz- (KI) Projekte über verschiedene Systeme hinweg zu optimieren, darunter PCs, Workstations, Rechenzentren und Cloud-Umgebungen, heißt es im NVIDIA Technical Blog.
Optimierte Entwicklungsumgebung
Mit der AI Workbench können Entwickler Projekte auf mehreren Betriebssystemen wie Windows, macOS und Ubuntu erstellen, testen und Prototypen davon erstellen. Sie bietet eine nahtlose Übertragung von Entwicklungsumgebungen und Rechenaufgaben zwischen lokalen und Remote-Systemen und optimiert dabei Kosten, Verfügbarkeit und Skalierbarkeit.
Dieses Tool konzentriert sich darauf, die Entwicklererfahrung zu verbessern und gleichzeitig erhebliche Anpassungsmöglichkeiten zu ermöglichen, insbesondere durch die Verwendung von Containern, die für GPU-beschleunigtes Arbeiten unerlässlich sind. Die AI Workbench arbeitet auch mit Ökosystempartnern zusammen, um die Benutzererfahrung zu verbessern. Beispielsweise erleichtert die Partnerschaft mit Canonical die Verwendung einer Ubuntu-WSL-Distribution für Installationen unter Windows.
Verwaltete Docker-Desktopinstallation
Eines der Hauptmerkmale der neuesten Version von AI Workbench ist die verwaltete Installation von Docker Desktop, einer Container-Runtime, die sowohl für Windows als auch für macOS empfohlen wird. Bisher waren für die Einrichtung von Docker manuelle Schritte erforderlich, aber die neue Zusammenarbeit mit Docker ermöglicht einen nahtlosen Installationsprozess direkt über die AI Workbench-Schnittstelle.
Die AI Workbench von NVIDIA automatisiert jetzt mehrere Aufgaben, darunter:
- Docker Desktop installieren: Dadurch ist es nicht mehr erforderlich, das AI Workbench-Installationsprogramm zu beenden, um Docker manuell zu installieren.
- Docker Desktop unter Windows konfigurieren: Die AI Workbench konfiguriert Docker Desktop jetzt automatisch für die Verwendung ihrer eigenen WSL-Distribution, NVIDIA-Workbench.
Neue AI Workbench Projekte
Die neueste Version enthält auch neue Beispielprojekte, die Entwicklern helfen sollen. Diese Projekte sind als Git-Repositorys strukturiert, die containerisierte Entwicklungsumgebungen definieren und IDEs wie Jupyter und Visual Studio Code unterstützen.
Ein bemerkenswertes Beispiel ist das Hybrid-RAG-Projekt auf GitHub, das es Benutzern ermöglicht, das Projekt zu klonen und die RAG-Anwendung mit nur wenigen Klicks auszuführen. Das Projekt kann entweder lokale GPUs oder Cloud-Endpunkte für die Inferenz verwenden.
Agentisches RAG
Das Agentic RAG-Projekt integriert KI-Agenten, um das Aufrufen von Websuchtools in RAG-Pipelines zu integrieren und dynamisch online nach neuen Dokumenten zu suchen, um besser auf Anfragen reagieren zu können. Dieses Projekt bietet eine anpassbare Gradio-Chat-App zum Ausführen von Inferenzen mit verschiedenen Endpunkten, einschließlich Cloud- und selbstgehosteten Microservices.
NIM überall
NIM Anywhere ist ein weiteres bedeutendes Projekt, das einen vorkonfigurierten RAG-Chatbot und Docker-Automatisierung zum Ausführen von Diensten wie NIM, Milvus und Redis enthält. Es bietet außerdem ein anpassbares Frontend zum Erweitern von Projekten und Erstellen neuer Anwendungsfälle.
Projekte optimieren
Die Version führt mehrere Feinabstimmungs-Workflows für neue Modelle ein, darunter:
- Mixtral 8x7B: Demonstriert die Feinabstimmung eines Expertenmodells (MoE).
- Llama 3 8B: Demonstriert eine vollständige Feinabstimmung unter Aufsicht und eine direkte Präferenzoptimierung (Direct Preference Optimization, DPO).
- Phi-3 Mini: Ein sehr zugängliches Feinabstimmungsbeispiel aufgrund seiner geringen Modellgröße und Quantisierungsfähigkeit.
- RTX AI Toolkit: Bietet einen End-to-End-Workflow für Windows-Anwendungsentwickler und unterstützt verschiedene GPUs von NVIDIA RTX-PCs bis zur Cloud.
Weitere neue Funktionen
Basierend auf Benutzerfeedback enthält die neueste Version von AI Workbench:
- SSH-Agent: Fügt Unterstützung für passwortgeschützte SSH-Schlüssel für Unternehmensbenutzer hinzu.
- Ubuntu 24.04: Erweitert die Unterstützung um die neueste Ubuntu-Distribution.
- Protokollierung: Führt einen Supportbefehl in der AI Workbench-CLI ein, um Metadaten und Protokolle zur einfacheren Fehlerbehebung in eine ZIP-Datei zu exportieren.
Zukünftige Entwicklungen
Mit Blick auf die Zukunft plant NVIDIA, in zukünftigen Versionen von AI Workbench die App-Freigabe einzuführen und die Multi-Container-Unterstützung zu optimieren. Diese Funktionen zielen darauf ab, die Zusammenarbeit weiter zu verbessern und komplexe Arbeitsabläufe für Entwickler zu vereinfachen.
Weitere Einzelheiten zur AI Workbench und zum Einstieg finden Sie im offiziellen technischen Blog von NVIDIA.
Bildquelle: Shutterstock
Quelle: https://blockchain.news/news/nvidia-ai-workbench-simplifies-gpu-utilization-on-windows
Dieser Beitrag ist ein öffentlicher RSS Feed. Sie finden den Original Post unter folgender Quelle (Website) .
Unser Portal ist ein RSS-Nachrichtendienst und distanziert sich vor Falschmeldungen oder Irreführung. Unser Nachrichtenportal soll lediglich zum Informationsaustausch genutzt werden. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. Kryptohandel hat ein großes Handelsrisiko was zum Totalverlust führen kann.