Intégration de TensorFlow

Cette page explique l'intégration de TensorFlow à Vertex AI et fournit des ressources expliquant comment utiliser TensorFlow sur Vertex AI. L'intégration de Vertex AI avec TensorFlow vous permet d'entraîner, de déployer et d'orchestrer plus facilement des modèles TensorFlow en production.

Exécuter du code dans des notebooks

Vertex AI propose deux options pour exécuter votre code dans les notebooks : Colab Enterprise et Vertex AI Workbench. Pour en savoir plus sur ces options, consultez la section Choisir une solution de notebook.

Conteneurs prédéfinis pour l'entraînement

Vertex AI fournit des images de conteneurs Docker prédéfinies pour l'entraînement de modèle. Ces conteneurs sont organisés par frameworks de machine learning et versions de framework. Ils incluent des dépendances communes que vous souhaiterez peut-être utiliser dans votre code d'entraînement.

Pour savoir quelles versions de TensorFlow disposent de conteneurs d'entraînement prédéfinis et comment entraîner des modèles avec un conteneur d'entraînement prédéfini, consultez la section Conteneurs prédéfinis pour l'entraînement personnalisé.

Entraînement distribué

Vous pouvez exécuter un entraînement distribué de modèles TensorFlow sur Vertex AI. Pour un entraînement sur plusieurs nœuds de calcul, vous pouvez utiliser Reduction Server afin d'optimiser davantage les performances pour les opérations collectives de réduction globale (all-reduce). Pour en savoir plus sur l'entraînement distribué sur Vertex AI, consultez la page Entraînement distribué.

Conteneurs préconfigurés pour les prédictions

Semblable aux conteneurs prédéfinis pour l'entraînement, Vertex AI fournit des images de conteneurs prédéfinis pour diffuser les prédictions et les explications des modèles TensorFlow que vous avez créés dans ou en dehors de Vertex AI. Ces images fournissent des serveurs de prédiction HTTP que vous pouvez utiliser pour diffuser des prédictions avec une configuration minimale.

Pour savoir quelles versions de TensorFlow disposent de conteneurs d'entraînement prédéfinis et comment entraîner des modèles avec un conteneur d'entraînement prédéfini, consultez la section Conteneurs prédéfinis pour l'entraînement personnalisé.

Environnement d'exécution TensorFlow optimisé

L'environnement d'exécution TensorFlow optimisé utilise les optimisations de modèles et les nouvelles technologies propriétaires Google pour améliorer la vitesse et réduire le coût des prédictions par rapport à aux conteneurs de prédiction prédéfinis standard de Vertex AI pour TensorFlow.

Intégration de TensorFlow Profiler

Entraînez des modèles à moindre coût et plus rapidement en surveillant et en optimisant les performances de votre job d'entraînement à l'aide de l'intégration de TensorFlow Profiler à Vertex AI. TensorFlow Profiler vous aide à comprendre la consommation de ressources des opérations d'entraînement afin d'identifier et d'éliminer les goulots d'étranglement.

Pour en savoir plus sur TensorFlow Profiler de Vertex AI, consultez la page Profiler les performances d'entraînement des modèles à l'aide de Profiler.

Ressources pour l'utilisation de TensorFlow sur Vertex AI

Pour en savoir plus et commencer à utiliser TensorFlow dans Vertex AI, consultez les ressources suivantes.