Interfaces pour Vertex AI Pipelines

Cette page répertorie les interfaces que vous pouvez utiliser pour définir et exécuter des pipelines de ML sur Vertex AI Pipelines.

Interfaces permettant de définir un pipeline

Vertex AI Pipelines est compatible avec les pipelines de ML définis à l'aide du SDK Kubeflow Pipelines (KFP) ou du SDK TensorFlow Extended (TFX).

SDK Kubeflow Pipelines (KFP)

Logo Kubeflow Pipelines Utilisez KFP pour tous les cas d'utilisation où vous n'avez pas besoin de TensorFlow Extended pour traiter d'énormes quantités de données structurées ou textuelles.

Vertex AI Pipelines est compatible avec le SDK KFP v1.8 ou version ultérieure. Toutefois, pour utiliser les exemples de code de la documentation Vertex AI Pipelines, utilisez le SDK KFP v2.

Lorsque vous utilisez le SDK KFP, vous pouvez définir votre workflow de ML en créant des composants personnalisés, mais aussi en réutilisant des composants prédéfinis, tels que les composants du pipeline Google Cloud. Les composants du pipeline Google Cloud vous permettent d'utiliser facilement des services Vertex AI comme AutoML dans votre pipeline de ML. Vertex AI Pipelines est compatible avec le SDK des composants du pipeline Google Cloud en version v2 ou ultérieure. Pour en savoir plus sur les composants du pipeline Google Cloud, consultez la page Présentation des composants du pipeline Google Cloud.

Pour savoir comment créer un pipeline à l'aide de Kubeflow Pipelines, consultez la page Construire un pipeline. Pour en savoir plus sur Kubeflow Pipelines, consultez la documentation de Kubeflow Pipelines.

SDK TensorFlow Extended (TFX)

Logo du SDK TFX Utilisez TFX si vous utilisez TensorFlow Extended dans votre workflow de ML pour traiter des téraoctets de données structurées ou textuelles. Vertex AI Pipelines est compatible avec le SDK TFX v0.30.0 ou version ultérieure.

Pour savoir comment créer des pipelines de ML à l'aide de TFX, consultez la section Tutoriels de prise en main de la page Tutoriels TensorFlow Extended en production.

Interfaces permettant d'exécuter un pipeline

Une fois que vous avez défini votre pipeline de ML, vous pouvez créer une exécution de pipeline de ML avec l'une des interfaces suivantes :

  • API REST

  • Clients du SDK

  • Console Google Cloud

Pour en savoir plus sur les interfaces que vous pouvez utiliser pour interagir avec Vertex AI, consultez la page Interfaces pour Vertex AI.

API REST

Pour créer une exécution de pipeline à l'aide de REST, utilisez l'API de service Pipelines. Cette API utilise la ressource REST projects.locations.pipelineJobs.

Clients du SDK

Vertex AI Pipelines vous permet de créer des exécutions de pipeline à l'aide du SDK Vertex AI pour Python ou des bibliothèques clientes.

SDK Vertex AI pour Python

Le SDK Vertex AI pour Python (aiplatform) est le SDK recommandé pour travailler par programmation avec l'API de service Pipelines. Pour en savoir plus sur ce SDK, consultez la documentation de l'API pour google.cloud.aiplatform.PipelineJob.

Bibliothèques clientes

Les bibliothèques clientes sont des SDK de clients API générés automatiquement (GAPIC). Vertex AI Pipelines est compatible avec les bibliothèques clientes suivantes :

  • Python (aiplatform v1 et v1beta1)

  • Java

  • Node.js

  • Go

Pour en savoir plus, consultez la page Installer les bibliothèques clientes Vertex AI.

Console Google Cloud (IUG)

La console Google Cloud est la méthode recommandée pour examiner et surveiller les exécutions de votre pipeline. Vous pouvez également utiliser la console Google Cloud pour effectuer d'autres tâches, telles que créer, supprimer et cloner des exécutions de pipeline, accéder à la galerie de modèles et récupérer le libellé de facturation d'une exécution de pipeline.

Accéder à la page "Pipelines" dans la console Google Cloud

Étapes suivantes