Integrazione di TensorFlow

Questa pagina illustra l'integrazione con TensorFlow di Vertex AI e fornisce risorse che mostrano come usare TensorFlow su Vertex AI. Grazie all'integrazione con TensorFlow di Vertex AI, semplifica l'addestramento, il deployment e l'orchestrazione dei modelli TensorFlow in produzione.

Esegui codice nei blocchi note

Vertex AI offre due opzioni per eseguire il codice in blocchi note: Colab Enterprise e Vertex AI Workbench. Per saperne di più su queste opzioni, vedi Scegliere una soluzione di blocco note.

Container predefiniti per l'addestramento

Vertex AI fornisce immagini di container Docker predefinite per l'addestramento dei modelli. Questi container sono organizzati in base ai framework di machine learning e alle versioni dei framework e includono dipendenze comuni che si potrebbero utilizzare nel codice di addestramento.

Per sapere quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.

Addestramento distribuito

Puoi eseguire l'addestramento distribuito dei modelli TensorFlow su Vertex AI. Per l'addestramento di più lavoratori, puoi utilizzare Reduction Server per ottimizzare ulteriormente le prestazioni per ridurre del tutto le operazioni collettive. Per scoprire di più sull'addestramento distribuito su Vertex AI, consulta Addestramento distribuito.

Container predefiniti per le previsioni

Analogamente ai container predefiniti per l'addestramento, Vertex AI fornisce immagini container predefinite per fornire previsioni e spiegazioni dai modelli TensorFlow che hai creato all'interno o all'esterno di Vertex AI. Queste immagini forniscono server di previsione HTTP che puoi utilizzare per fornire previsioni con una configurazione minima.

Per sapere quali versioni di TensorFlow dispongono di container di addestramento predefiniti e come addestrare i modelli con un container di addestramento predefinito, consulta Container predefiniti per l'addestramento personalizzato.

Runtime TensorFlow ottimizzato

Il runtime di TensorFlow ottimizzato utilizza le ottimizzazioni dei modelli e le nuove tecnologie Google proprietarie per migliorare la velocità e ridurre il costo delle previsioni rispetto ai container di previsione predefiniti standard di Vertex AI per TensorFlow.

Integrazione di TensorFlow Profiler

Addestra i modelli in modo più economico e veloce monitorando e ottimizzando le prestazioni del job di addestramento con l'integrazione di TensorFlow Profiler di Vertex AI. TensorFlow Profiler consente di comprendere il consumo di risorse delle operazioni di addestramento, in modo da identificare ed eliminare i colli di bottiglia.

Per scoprire di più su TensorFlow Profiler di Vertex AI, consulta Prestazioni di addestramento del modello di profilo utilizzando Profiler.

Risorse per l'utilizzo di TensorFlow su Vertex AI

Per saperne di più e iniziare a utilizzare TensorFlow in Vertex AI, consulta le seguenti risorse.