TensorFlow インテグレーション

このページでは、Vertex AI の TensorFlow インテグレーションについて説明します。また、Vertex AI で TensorFlow を使用する方法を示すリソースについて紹介します。Vertex AI の TensorFlow インテグレーションを使用すると、本番環境での TensorFlow モデルのトレーニング、デプロイ、オーケストレーションを容易に行うことができます。

ノートブックでコードを実行する

Vertex AI には、ノートブックでコードを実行する方法として Colab Enterprise と Vertex AI Workbench という 2 つのオプションがあります。これらのオプションの詳細については、ノートブック ソリューションを選択するをご覧ください。

トレーニング用のビルド済みコンテナ

Vertex AI には、モデル トレーニング用にビルド済みの Docker コンテナ イメージが用意されています。これらのコンテナは ML フレームワークとフレームワーク バージョン別に編成され、トレーニング コードで必要となる一般的な依存関係が含まれています。

ビルド済みのトレーニング コンテナを使用する TensorFlow バージョンと、ビルド済みのトレーニング コンテナでモデルをトレーニングする方法については、カスタム トレーニング用のビルド済みコンテナをご覧ください。

分散トレーニング

Vertex AI では、TensorFlow モデルの分散トレーニングを実行できます。マルチワーカー トレーニングの場合、Reduction Server を使用して、all-reduce グループ演算に合わせてパフォーマンスをさらに最適化できます。Vertex AI での分散トレーニングの詳細については、分散トレーニングをご覧ください。

予測用のビルド済みコンテナ

トレーニング用のビルド済みコンテナと同様に、Vertex AI では、Vertex AI 内外で作成した TensorFlow モデルから予測と説明を提供するためのビルド済みコンテナ イメージが用意されています。これらのイメージは、最小限の構成で予測を行うために使用できる HTTP 予測サーバーを提供します。

ビルド済みのトレーニング コンテナを使用する TensorFlow バージョンと、ビルド済みのトレーニング コンテナでモデルをトレーニングする方法については、カスタム トレーニング用のビルド済みコンテナをご覧ください。

最適化された TensorFlow ランタイム

最適化された TensorFlow ランタイムは、モデルの最適化と新しい独自の Google テクノロジーにより、TensorFlow 用の Vertex AI の標準のビルド済み予測コンテナよりも予測速度を向上させ、コストを削減します。

TensorFlow Profiler インテグレーション

Vertex AI の TensorFlow Profiler インテグレーションを使用してトレーニング ジョブのパフォーマンスをモニタリングして最適化することで、コストを抑えながらモデルのトレーニングを迅速に行うことができます。TensorFlow Profiler を使用すると、トレーニング オペレーションのリソース消費量を把握し、パフォーマンスのボトルネックを特定して排除できます。

Vertex AI TensorFlow Profiler の詳細については、Profiler を使用してモデルのトレーニング パフォーマンスをプロファイリングするをご覧ください。

Vertex AI で TensorFlow を使用するためのリソース

Vertex AI での TensorFlow の詳細と使用方法については、次のリソースをご覧ください。