TensorFlow-Integration

Auf dieser Seite wird die TensorFlow-Integration von Vertex AI erläutert. Außerdem erfahren Sie, wie Sie TensorFlow in Vertex AI verwenden. Die TensorFlow-Integration von Vertex AI erleichtert das Trainieren, Bereitstellen und Orchestrieren von TensorFlow-Modellen in der Produktion.

Code in Notebooks ausführen

Vertex AI bietet zwei Optionen zum Ausführen Ihres Codes in Notebooks: Colab Enterprise und Vertex AI Workbench. Weitere Informationen zu diesen Optionen finden Sie unter Notebooklösung auswählen.

Vordefinierte Container für das Training

Vertex AI bietet vordefinierte Docker-Container-Images für das Modelltraining. Diese Container sind nach Frameworks für maschinelles Lernen und Framework-Versionen organisiert und enthalten allgemeine Abhängigkeiten, die Sie in Ihrem Trainingscode verwenden können.

Informationen zu den TensorFlow-Versionen mit vordefinierten Trainingscontainern und zum Trainieren von Modellen mit einem vordefinierten Trainingscontainer finden Sie unter Vordefinierte Container für benutzerdefiniertes Training.

Verteiltes Training

Sie können das verteilte Training von TensorFlow-Modellen auf Vertex AI verwenden. Beim Multi-Worker-Training können Sie mit dem Reduzierungsserver die Leistung für kollektive Vorgänge noch weiter optimieren. Weitere Informationen zum verteilten Training in Vertex AI finden Sie unter Verteiltes Training.

Vordefinierte Container für Vorhersagen

Ähnlich wie vordefinierte Container für das Training bietet Vertex AI vordefinierte Container-Images zum Bereitstellen von Vorhersagen und Erläuterungen aus TensorFlow-Modellen, die Sie entweder innerhalb oder außerhalb von Vertex AI erstellt haben. Diese Images stellen HTTP-Vorhersageserver bereit, mit denen Sie Vorhersagen mit minimaler Konfiguration bereitstellen können.

Informationen zu den TensorFlow-Versionen mit vordefinierten Trainingscontainern und zum Trainieren von Modellen mit einem vordefinierten Trainingscontainer finden Sie unter Vordefinierte Container für benutzerdefiniertes Training.

Optimierte TensorFlow-Laufzeit

Die optimierte TensorFlow-Laufzeit verwendet Modelloptimierungen und neue proprietäre Google-Technologien. Dadurch werden die Geschwindigkeit verbessert und die Kosten für Vorhersagen im Vergleich zu den vorkonfigurierten Vertex AI-Standardvorhersagecontainern für TensorFlow gesenkt.

TensorFlow Profiler-Integration

Mit der TensorFlow Profiler-Integration von Vertex AI lassen sich Modelle durch Überwachung und Optimierung der Leistung Ihres Trainingsjobs kostengünstiger und schneller trainieren. TensorFlow Profiler hilft Ihnen, den Ressourcenverbrauch von Trainingsvorgängen zu verstehen, damit Sie Leistungsengpässe identifizieren und beseitigen können.

Weitere Informationen zu Vertex AI TensorFlow Profiler finden Sie unter Leistung des Profilmodelltrainings mit Profiler bestimmen.

Ressourcen für die Verwendung von TensorFlow in Vertex AI

Weitere Informationen, darunter zur Verwendung von TensorFlow in Vertex AI, finden Sie in folgenden Ressourcen.