Account di servizio per Tabular Workflows

In questa pagina vengono descritti gli account di servizio per i seguenti flussi di lavoro tabulari:

Account di servizio per il flusso di lavoro tabulare per AutoML end-to-end

Questo flusso di lavoro utilizza i seguenti account di servizio:

Account di servizio Descrizione Entità predefinita Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline [email protected] Compute Engine default service account
Account di servizio per il worker Dataflow L'account di servizio che esegue i worker Dataflow [email protected] Compute Engine default service account
Agente di servizio AI Platform L'account di servizio che esegue i container di addestramento. [email protected] AI Platform Service Agent No

Alcuni degli account di servizio possono essere modificati con un account a tua scelta. Consulta Addestrare un modello con AutoML end-to-end per istruzioni specifiche per la console Google Cloud o l'API.

Account di servizio per Vertex AI Pipelines

Devi concedere i ruoli seguenti all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job di pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
Amministratore oggetti Storage Le autorizzazioni storage.objects.get e storage.objects.create di Amministratore oggetti Storage consentono all'account di servizio di accedere al bucket per la directory radice del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni anche se non utilizzi un'origine dati Cloud Storage.
Sviluppatore Dataflow dataflow.jobs.create consente all'account di servizio di creare job Dataflow durante la valutazione.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.

Account di servizio per il worker Dataflow

Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:

Ruolo Autorizzazioni
Worker Dataflow Questo ruolo consente all'account di servizio di accedere alle risorse necessarie per eseguire i job Dataflow.
Amministratore oggetti Storage Questo ruolo consente all'account di servizio di accedere ai bucket Cloud Storage. L'account di servizio ha bisogno di queste autorizzazioni anche se non utilizzi un'origine dati Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.

Devi inoltre concedere i seguenti ruoli all'account di servizio worker Dataflow in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
Tabella BigQuery standard Editor dati BigQuery Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Vista BigQuery di una tabella BigQuery standard Editor dati BigQuery Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery che contiene un file Cloud Storage di origine Editor dati BigQuery Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine Editor dati BigQuery Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
File Cloud Storage Visualizzatore oggetti Storage Progetto a cui appartiene il file

La tabella seguente fornisce una spiegazione di questi ruoli:

Ruolo Autorizzazioni
Editor dati BigQuery Le autorizzazioni bigquery.jobs.get e bigquery.jobs.create consentono all'account di servizio di utilizzare i set di dati BigQuery. bigquery.jobs.create consente all'account di servizio di creare set di dati BigQuery temporanei durante le statistiche e la generazione di esempi. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di utilizzare un set di dati BigQuery.
Visualizzatore dati BigQuery Questo ruolo fornisce all'account di servizio l'accesso al set di dati BigQuery.
Visualizzatore oggetti Storage storage.objects.get consente all'account di servizio di accedere a un file Cloud Storage.

Agente di servizio AI Platform

Devi assicurarti che il seguente ruolo sia concesso all'agente di servizio AI Platform nel progetto della pipeline:

Ruolo Autorizzazioni
Agente di servizio Vertex AI Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.

Se la tua origine dati è un set di dati BigQuery di un altro progetto, devi concedere i seguenti ruoli all'agente di servizio AI Platform nel progetto del set di dati:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery bigquery.tables.get consente all'account di servizio di ottenere informazioni sul set di dati BigQuery prima di avviare un job Dataflow.

Se l'origine dati è un file Cloud Storage di un altro progetto, devi concedere i seguenti ruoli all'agente di servizio AI Platform nel progetto file:

Visualizzatore oggetti Storage storage.objects.list consente all'account di servizio di ottenere informazioni sul file Cloud Storage prima di avviare un job Dataflow.

Account di servizio per il flusso di lavoro tabulare per la previsione

Questo flusso di lavoro utilizza i seguenti account di servizio:

Account di servizio Descrizione Entità predefinita Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline [email protected] Compute Engine default service account
Account di servizio per il worker Dataflow L'account di servizio che esegue i worker Dataflow [email protected] Compute Engine default service account
Agente di servizio AI Platform L'account di servizio che esegue i container di addestramento. [email protected] AI Platform Service Agent No

Alcuni degli account di servizio possono essere modificati con un account a tua scelta. Per ulteriori informazioni, consulta Addestrare un modello con il flusso di lavoro tabulare per la previsione.

Account di servizio per Vertex AI Pipelines

Devi concedere i ruoli seguenti all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job di pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
Editor dati BigQuery bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio necessita di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio necessita di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
Sviluppatore Dataflow Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow.

Devi inoltre concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
File Cloud Storage Amministratore Storage Progetto a cui appartiene il file
Tabella BigQuery standard Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Vista BigQuery di una tabella BigQuery standard Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery che contiene un file Cloud Storage di origine Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine

La tabella seguente fornisce una spiegazione di questi ruoli:

Visualizzatore dati BigQuery bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio necessita di questo accesso prima di avviare il job Dataflow nel passaggio Feature Transform Engine della pipeline.
Visualizzatore oggetti Storage storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine.
Amministratore oggetti Storage Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory radice del job della pipeline. L'account di servizio richiede queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.
Amministratore Storage Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio Feature Transform Engine della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage.

Se esegui la valutazione del modello, devi fornire un set di dati BigQuery che funga da destinazione per gli esempi previsti. Nel progetto che contiene questo set di dati, devi concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery Questo ruolo consente all'account di servizio di visualizzare i dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di creare job BigQuery.

Account di servizio per il worker Dataflow

Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:

Ruolo Autorizzazioni
Amministratore oggetti Storage Questo ruolo consente all'account di servizio di accedere ai bucket Cloud Storage. L'account di servizio richiede queste autorizzazioni anche se l'origine dati non è un file Cloud Storage.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire il passaggio Motore di trasformazione delle funzionalità della pipeline. L'account di servizio necessita di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Worker Dataflow L'account di servizio deve avere tutte le autorizzazioni concesse da questo ruolo.

Devi inoltre concedere i seguenti ruoli all'account di servizio worker Dataflow in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
Tabella BigQuery standard Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Vista BigQuery di una tabella BigQuery standard Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery che contiene un file Cloud Storage di origine Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
File Cloud Storage Visualizzatore dati BigQuery Progetto che esegue la pipeline

La tabella seguente fornisce una spiegazione di questi ruoli:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery bigquery.tables.get fornisce l'accesso al set di dati nel passaggio Feature Transform Engine della pipeline. L'account di servizio necessita di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Editor dati BigQuery Questo ruolo consente all'account di servizio di eseguire query sulla tabella e creare tabelle temporanee durante il passaggio della pipeline per la trasformazione delle funzionalità. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Visualizzatore oggetti Storage storage.objects.get consente all'account di servizio di accedere a un file Cloud Storage.

Agente di servizio AI Platform

Devi assicurarti che il seguente ruolo sia concesso all'agente di servizio AI Platform nel progetto della pipeline:

Ruolo Autorizzazioni
Agente di servizio Vertex AI Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.

Se esegui la valutazione del modello, devi fornire un set di dati BigQuery che funga da destinazione per gli esempi previsti. Nel progetto che contiene questo set di dati, devi concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines:

Ruolo Autorizzazioni
Editor dati BigQuery Questo ruolo consente all'account di servizio di modificare i dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di creare job BigQuery.

Il servizio tiene conto del flusso di lavoro tabulare per TabNet, del flusso di lavoro tabulare per Wide & Deep e di Prophet

Questi flussi di lavoro utilizzano i seguenti account di servizio:

Account di servizio Descrizione Entità predefinita Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline [email protected] Compute Engine default service account
Account di servizio per il worker Dataflow L'account di servizio che esegue i worker Dataflow [email protected] Compute Engine default service account
Agente di servizio AI Platform L'account di servizio che esegue i container di addestramento. [email protected] AI Platform Service Agent No

Alcuni degli account di servizio possono essere modificati con un account a tua scelta. Per istruzioni sul flusso di lavoro tabulare per le istruzioni TabNet, vedi Addestrare un modello con TabNet. Per istruzioni sul flusso di lavoro tabulare per le istruzioni Wide and Deep, vedi Addestrare un modello con Wide & Deep. Per istruzioni relative al Profeta, consulta Previsione con il profeta.

Account di servizio per Vertex AI Pipelines

Devi concedere i ruoli seguenti all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job di pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
Editor dati BigQuery bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio necessita di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio necessita di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
Sviluppatore Dataflow Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow.

Devi inoltre concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
File Cloud Storage Amministratore Storage Progetto a cui appartiene il file
Tabella BigQuery standard Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Vista BigQuery di una tabella BigQuery standard Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery che contiene un file Cloud Storage di origine Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine

La tabella seguente fornisce una spiegazione di questi ruoli:

Visualizzatore dati BigQuery bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio necessita di questo accesso prima di avviare il job Dataflow nel passaggio Feature Transform Engine della pipeline.
Visualizzatore oggetti Storage storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine.
Amministratore oggetti Storage Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory radice del job della pipeline. L'account di servizio richiede queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.
Amministratore Storage Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio Feature Transform Engine della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage.

Account di servizio per il worker Dataflow

Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:

Ruolo Autorizzazioni
Amministratore oggetti Storage Questo ruolo consente all'account di servizio di accedere ai bucket Cloud Storage. L'account di servizio richiede queste autorizzazioni anche se l'origine dati non è un file Cloud Storage.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire il passaggio Motore di trasformazione delle funzionalità della pipeline. L'account di servizio necessita di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Worker Dataflow L'account di servizio deve avere tutte le autorizzazioni concesse da questo ruolo.

Devi inoltre concedere i seguenti ruoli all'account di servizio worker Dataflow in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
Tabella BigQuery standard Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Vista BigQuery di una tabella BigQuery standard Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery che contiene un file Cloud Storage di origine Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
File Cloud Storage Visualizzatore dati BigQuery Progetto che esegue la pipeline

La tabella seguente fornisce una spiegazione di questi ruoli:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery bigquery.tables.get fornisce l'accesso al set di dati nel passaggio Feature Transform Engine della pipeline. L'account di servizio necessita di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Editor dati BigQuery Questo ruolo consente all'account di servizio di eseguire query sulla tabella e creare tabelle temporanee durante il passaggio della pipeline per la trasformazione delle funzionalità. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Visualizzatore oggetti Storage storage.objects.get consente all'account di servizio di accedere a un file Cloud Storage.

Agente di servizio AI Platform

Devi assicurarti che il seguente ruolo sia concesso all'agente di servizio AI Platform nel progetto della pipeline:

Ruolo Autorizzazioni
Agente di servizio Vertex AI Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.

Account di servizio per ARIMA+

Questo flusso di lavoro utilizza i seguenti account di servizio:

Account di servizio Descrizione Entità predefinita Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline [email protected] Compute Engine default service account
Agente di servizio AI Platform L'account di servizio che esegue i container di addestramento. [email protected] AI Platform Service Agent No

L'account di servizio di Vertex AI Pipelines può essere modificato in un account a tua scelta. Per ulteriori informazioni, consulta la sezione Previsione con ARIMA+.

Account di servizio per Vertex AI Pipelines

Devi concedere i ruoli seguenti all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job di pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
Editor dati BigQuery bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio necessita di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio necessita di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
Sviluppatore Dataflow Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow.

Devi inoltre concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
File Cloud Storage Amministratore Storage Progetto a cui appartiene il file
Tabella BigQuery standard Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Vista BigQuery di una tabella BigQuery standard Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery che contiene un file Cloud Storage di origine Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine

La tabella seguente fornisce una spiegazione di questi ruoli:

Visualizzatore dati BigQuery bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio necessita di questo accesso prima di avviare il job Dataflow nel passaggio Feature Transform Engine della pipeline.
Visualizzatore oggetti Storage storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine.
Amministratore oggetti Storage Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory radice del job della pipeline. L'account di servizio richiede queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.
Amministratore Storage Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio Feature Transform Engine della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage.

Agente di servizio AI Platform

Devi assicurarti che il seguente ruolo sia concesso all'agente di servizio AI Platform nel progetto della pipeline:

Ruolo Autorizzazioni
Agente di servizio Vertex AI Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.