TensorFlow 集成

本页面介绍了 Vertex AI 的 TensorFlow 集成,并提供了一些介绍如何在 Vertex AI 上使用 TensorFlow 的资源。Vertex AI 的 TensorFlow 集成功能可让您更轻松地在生产环境中训练、部署和编排 TensorFlow 模型。

在笔记本中运行代码

Vertex AI 提供了两个在笔记本中运行代码的选项:Colab Enterprise 和 Vertex AI Workbench。如需详细了解这些选项,请参阅选择笔记本解决方案

用于训练的预构建容器

Vertex AI 为模型训练提供预构建的 Docker 容器映像。这些容器按机器学习框架和框架版本进行组织,并包含您可能想要在训练代码中使用的通用依赖项。

如需了解哪些 TensorFlow 版本具有预构建训练容器以及如何使用预构建训练容器训练模型,请参阅自定义训练的预构建容器

分布式训练

您可以在 Vertex AI 上运行 TensorFlow 模型的分布式训练。对于多工作器训练,您可以使用 Reduction Server 进一步优化性能,以实现全缩减集体操作。如需详细了解 Vertex AI 上的分布式训练,请参阅分布式训练

用于预测的预构建容器

与用于训练的预构建容器类似,Vertex AI 提供预构建的容器映像,以从您在 Vertex AI 内部或外部创建的 TensorFlow 模型提供预测和说明。这些映像提供 HTTP 预测服务器,您可以使用这些服务器以最少的配置执行预测。

如需了解哪些 TensorFlow 版本具有预构建训练容器以及如何使用预构建训练容器训练模型,请参阅自定义训练的预构建容器

优化的 TensorFlow 运行时

与适用于 TensorFlow 的 Vertex AI 标准预构建预测容器相比,优化的 TensorFlow 运行时使用模型优化和新的专有 Google 技术来提高预测速度并降低预测费用。

TensorFlow Profiler 集成

使用 Vertex AI 的 TensorFlow Profiler 集成来监控和优化训练作业的性能,以更低的费用更快地训练模型。TensorFlow Profiler 可帮助您了解训练操作的资源消耗情况,以便您找出并消除性能瓶颈。

如需详细了解 Vertex AI TensorFlow Profiler,请参阅使用 Profiler 分析模型训练性能

在 Vertex AI 上使用 TensorFlow 的资源

如需了解详情并开始使用 Vertex AI 中的 TensorFlow,请参阅以下资源。