Vertex AI per gli utenti di AI Platform

Vertex AI riunisce AI Platform e AutoML in un'unica interfaccia. Questa pagina mette a confronto Vertex AI e AI Platform, per gli utenti che conoscono AI Platform.

Addestramento personalizzato

Con Vertex AI, puoi addestrare modelli con AutoML oppure eseguire l'addestramento personalizzato, che è un flusso di lavoro più simile ad AI Platform Training.

Attività AI Platform Training Vertex AI
Seleziona la versione del framework di machine learning da utilizzare Gli utenti della console Google Cloud impostano il nome e la versione del framework.
Versioni di runtime: quando invii un job di addestramento, specifica il numero di una versione del runtime che include la versione del framework e del framework desiderate. Container predefiniti: quando invii un job di addestramento personalizzato, specifica l'URI Artifact Registry di un container predefinito che corrisponde alla versione del framework e del framework.
Invia un job di addestramento utilizzando un container personalizzato Crea il tuo container personalizzato, ospitalo su Artifact Registry e utilizzalo per eseguire la tua app di addestramento.
Imposta la regione Google Cloud da utilizzare Specifica il nome di una regione quando invii un job di addestramento a un endpoint globale (ml.googleapis.com). Invia il job di addestramento personalizzato a un endpoint a livello di regione, come us-central1-aiplatform.googleapis.com. Non esiste un endpoint globale. Alcune regioni disponibili in AI Platform non sono disponibili in Vertex AI. Consulta l'elenco delle regioni supportate nella pagina Località.
Specifica le configurazioni della macchina per l'addestramento distribuito Specifica le configurazioni denominate in base a ruoli specifici del tuo cluster di addestramento (masterConfig, workerConfig, parameterServerConfig e evaluatorConfig). La configurazione è un elenco generico: specifica le configurazioni della macchina in CustomJobSpec.workerPoolSpecs[].
Inviare un job di addestramento utilizzando un pacchetto Python I campi relativi al pacchetto Python sono di primo livello all'interno di TrainingInput. I campi relativi al pacchetto Python sono organizzati all'interno di pythonPackageSpec.
Specifica i tipi di macchina
Invia un job di ottimizzazione iperparametri Invia un job di addestramento con una configurazione hyperparameters. Se un job di addestramento viene inviato con o senza l'ottimizzazione degli iperparametri, crea una risorsa API TrainingJob. Invia un job di ottimizzazione iperparametri con una configurazione studySpec. Viene creata una risorsa API di primo livello (HyperparameterTuningJob). I job di addestramento personalizzato inviati senza l'ottimizzazione degli iperparametri creano una risorsa API CustomJob di primo livello.
Crea una pipeline di addestramento per orchestrare i job di addestramento con altre operazioni Nessuna risorsa API integrata per l'orchestrazione; utilizza AI Platform Pipelines, Kubeflow o un altro strumento di orchestrazione. Crea una risorsa TrainingPipeline per orchestrare un job di addestramento con il deployment di modelli.

Previsione

Attività AI Platform Prediction Vertex AI
Seleziona la versione del framework di machine learning da utilizzare Gli utenti della console Google Cloud impostano il nome e la versione del framework.
Versioni di runtime: quando esegui il deployment di un modello, specifica il numero di una versione del runtime che include la versione del framework e del framework desiderati. Container predefiniti: quando esegui il deployment di un modello, specifica l'URI Artifact Registry di un container predefinito che corrisponde alla versione del framework e del framework. Utilizza l'opzione per più regioni che corrisponde all'endpoint a livello di regione, ad esempio us-docker.pkg.dev per un endpoint us-central1.
Esegui codice personalizzato con previsione Utilizza routine di previsione personalizzate. Utilizza routine di previsione personalizzate su Vertex AI.
Imposta la regione Google Cloud da utilizzare Specifica il nome di una regione quando crei un modello su un endpoint API globale (ml.googleapis.com). Crea il modello su un endpoint a livello di regione, come us-central1-aiplatform.googleapis.com. Non esiste un endpoint globale. Alcune regioni disponibili in AI Platform non sono disponibili in Vertex AI. Consulta l'elenco delle regioni supportate nella pagina Località.
Archivia artefatti del modello Gli artefatti del modello sono archiviati in Cloud Storage. Nessuna risorsa API associata per gli artefatti del modello. È disponibile uno spazio di archiviazione gestito per gli artefatti del modello, associato alla risorsa Model.
Puoi comunque eseguire il deployment dei modelli archiviati in Cloud Storage senza utilizzare un set di dati gestito di Vertex AI.
Deployment dei modelli Esegui direttamente il deployment di un modello per renderlo disponibile per le previsioni online. Creerai un oggetto Endpoint, che fornisce risorse per fornire previsioni online. Quindi, esegui il deployment del modello sull'endpoint. Per richiedere previsioni, chiama il metodo predict().
Richiedi previsioni batch Puoi richiedere previsioni batch su modelli archiviati in Cloud Storage e specificare nella richiesta una versione del runtime. In alternativa, puoi richiedere previsioni batch sui modelli di cui è stato eseguito il deployment e utilizzare la versione del runtime specificata durante il deployment del modello. Puoi caricare il modello su Vertex AI e poi specificare un container predefinito o un container personalizzato per la pubblicazione delle previsioni.
Richieste di previsione online La struttura JSON include un elenco di istanze. La struttura JSON include un elenco di istanze e un campo per i parametri.
Specifica i tipi di macchina Specifica qualsiasi tipo di macchina disponibile quando crei una versione. I tipi di macchine di previsione online legacy di AI Platform (MLS1) non sono supportati. Sono disponibili solo tipi di macchine di Compute Engine .
Deployment modelli Crea una risorsa del modello, quindi una risorsa della versione. Crea una risorsa modello, crea una risorsa endpoint ed esegui il deployment del modello nell'endpoint. Specifica la suddivisione del traffico nell'endpoint.

Vertex Explainable AI

Puoi ottenere attribuzioni delle caratteristiche per modelli tabulari e immagine sia in AI Explanations per AI Platform che in Vertex Explainable AI.

Attività AI Explanations per AI Platform Vertex Explainable AI
Visualizza attribuzioni delle caratteristiche per i modelli tabulari Utilizza Shapley campionato o gradienti integrati per ottenere attribuzioni delle funzionalità per i modelli tabulari.
Recupero attribuzioni delle funzionalità per i modelli di immagine Utilizza gradienti integrati o XRAI per ottenere le attribuzioni delle funzionalità per i modelli di immagine.

Etichettatura dati

AI Platform Data Labeling Service è disponibile con alcune modifiche all'API:

Attività / concetto AI Platform Data Labeling Service Etichettatura dei dati in Vertex AI
Inviare istruzioni per gli etichettatori dei dati Le istruzioni, in formato PDF, vengono archiviate in Cloud Storage e associate a una risorsa API Instruction. Le istruzioni, in formato PDF, vengono archiviate in Cloud Storage, ma non è disponibile alcuna risorsa API solo per le istruzioni. Specifica l'URI Cloud Storage del file di istruzioni quando crei una risorsa API DataLabelingJob.
Set di dati annotati È presente una risorsa API AnnotatedDataset. Nessuna risorsa dell'API AnnotatedDataset presente.
Come sono organizzati gli AnnotationSpec Gli elementi AnnotationSpec sono organizzati in una risorsa API AnnotationSpecSet. Non c'è AnnotationSpecSet. Tutti gli elementi AnnotationSpec sono organizzati in Dataset.

Inoltre, su Vertex AI è disponibile una nuova funzionalità di etichettatura dei dati:

Le attività di etichettatura dei dati vengono generalmente completate da etichettatori esperti di Google. In alternativa, puoi creare un pool di esperti che ti consenta di gestire le attività di etichettatura dei dati utilizzando la tua forza lavoro per completare le attività di etichettatura, anziché utilizzare gli esperti di Google. Questa funzionalità è attualmente disponibile solo tramite una richiesta API. Non è disponibile nella console Google Cloud.