Vai a
AI Infrastructure

AI Infrastructure

Infrastruttura scalabile, ad alte prestazioni e conveniente per ogni carico di lavoro di IA.

  • Acceleratori IA per ogni caso d'uso, dall'addestramento ad alte prestazioni all'inferenza a basso costo

  • Scala più velocemente con GPU e TPU su Google Kubernetes Engine o Google Compute Engine

  • Soluzioni di cui è possibile eseguire il deployment per Vertex AI, Google Kubernetes Engine e Cloud HPC Toolkit

  • Sfrutta al meglio la nostra AI Infrastructure eseguendo il deployment dell'architettura AI Hypercomputer

Vantaggi

Ottimizza prestazioni e costi su larga scala

Con Google Cloud, puoi scegliere tra GPU, TPU o CPU per supportare una varietà di casi d'uso, tra cui addestramento ad alte prestazioni, inferenza a basso costo ed elaborazione di dati su larga scala.

Ottieni risultati più velocemente con l'infrastruttura gestita

Scala in modo più rapido ed efficiente con l'infrastruttura gestita fornita da Vertex AI. Configura rapidamente gli ambienti ML, automatizza l'orchestrazione, gestisci cluster di grandi dimensioni e configura applicazioni a bassa latenza.

Sviluppa con software creato appositamente per l'IA

Migliora la produttività dello sviluppo IA sfruttando GKE per gestire carichi di lavoro su larga scala. Addestra e gestisci i modelli di base con il supporto per la scalabilità automatica, l'orchestrazione dei carichi di lavoro e gli upgrade automatici. 

Funzionalità principali

Funzionalità principali

Hardware flessibile e scalabile per qualsiasi caso d'uso

Non esiste una soluzione universale per tutti i carichi di lavoro IA: ecco perché, insieme ai nostri partner hardware di settore, come NVIDIA, Intel, AMD, Arm e altri, offriamo ai clienti la più ampia gamma di opzioni di calcolo ottimizzate per l'IA tra TPU,GPU e CPU per l'addestramento e la gestione dei modelli con l'utilizzo più elevato di dati. 

Scalabili e facili da usare e da gestire

L'orchestrazione di carichi di lavoro IA su larga scala con Cloud TPU e GPU Cloud ha sempre richiesto sforzi manuali per gestire errori, logging, monitoraggio e altre operazioni di base. Google Kubernetes Engine (GKE), il servizio Kubernetes più scalabile e completamente gestito, semplifica notevolmente il lavoro necessario per il funzionamento di TPU e GPU. Sfruttare GKE per gestire l'orchestrazione di carichi di lavoro IA su larga scala su Cloud TPU e GPU Cloud migliora la produttività dello sviluppo dell'IA.

E per le organizzazioni che preferiscono la semplicità di astrattare l'infrastruttura tramite i servizi gestiti, Vertex AI ora supporta l'addestramento con vari framework e librerie che utilizzano Cloud TPU e Cloud GPU.

Scala in modo esponenziale i tuoi modelli IA

La nostra infrastruttura ottimizzata per l'IA è progettata per offrire la scalabilità e le prestazioni globali richieste da prodotti Google come YouTube, Gmail, Google Maps, Google Play e Android che servono miliardi di utenti. Le nostre soluzioni di infrastruttura IA sono supportate dalla rete di data center Jupiter di Google Cloud, che supporta le migliori funzionalità di scale out del settore per servizi di base, fino a carichi di lavoro IA ad alta intensità.

Piattaforma aperta e altamente flessibile

Per decenni, abbiamo contribuito a progetti di IA critici come TensorFlow e JAX. Abbiamo co-fondato la PyTorch Foundation e recentemente abbiamo annunciato un nuovo consorzio di settore: il progetto OpenXLA. Inoltre, Google è il principale collaboratore open source CNCF e vanta oltre 20 anni di esperienza con contributi a OSS come TFX, MLIR, OpenXLA, KubeFlow e Kubernetes, oltre a sponsorizzare progetti OSS fondamentali per la comunità di data science, come Project Jupyter e NumFOCverteUS.

Inoltre, i nostri servizi di infrastruttura di IA sono integrati con i framework IA più noti come TensorFlow, PyTorch e MXNet, consentendo ai clienti di continuare a utilizzare il framework che preferiscono senza essere vincolati a un framework/un'architettura hardware specifici.

Documentazione

Documentazione

Google Cloud Basics

Strumenti di AI Infrastructure su GKE

Esegui carichi di lavoro AI/ML ottimizzati con le funzionalità di orchestrazione della piattaforma Google Kubernetes Engine (GKE).
Google Cloud Basics

Deep Learning VM Image

Le immagini di Deep Learning VM sono ottimizzate per le attività di data science e machine learning. Vengono fornite con framework ML e strumenti chiave preinstallati e funzionano con le GPU.
Google Cloud Basics

Deep Learning Containers

I Deep Learning Containers sono ambienti coerenti e ottimizzati per le prestazioni per aiutarti a prototipare e implementare rapidamente flussi di lavoro su CPU o GPU.
Tutorial

In che modo le unità di elaborazione Tensor Processing sono ottimizzate per AI/ML?

Scopri i requisiti di calcolo del machine learning e come le TPU sono state create appositamente per gestire l'attività.
Google Cloud Basics

Architettura del sistema TPU

Le TPU (Tensor Processing Unit) sono i circuiti integrati per applicazioni specifiche (ASIC) di Google sviluppati appositamente per accelerare i carichi di lavoro di machine learning. Scopri da zero l'architettura di sistema alla base delle TPU.

Non trovi ciò che stai cercando?

Casi d'uso

Architettura di AI Hypercomputer

Caso d'uso
Massimizzare il rapporto prezzo/prestazioni per gestire l'IA su larga scala

Le GPU Cloud TPU v5e e NVIDIA L4 consentono un'inferenza ad alte prestazioni e a costi contenuti per un'ampia gamma di carichi di lavoro IA, inclusi i più recenti modelli LLM e di IA generativa. Entrambi offrono significativi miglioramenti per quanto riguarda il rapporto prezzo/prestazioni rispetto ai modelli precedenti e l'architettura degli ipercomputer IA di Google Cloud consente ai clienti di scalare i propri deployment a livelli leader del settore.

Grafico delle prestazioni di inferenza IA fino a 2,7 volte superiori/$

Prezzi

Prezzi

I prezzi di AI Infrastructure si basano sul prodotto selezionato. Puoi iniziare a utilizzare AI Infrastructure di Google gratuitamente con Colab o il livello gratuito di Google Cloud.

Cloud TPU
GPU Cloud
Per informazioni sui prezzi delle TPU per i tipi con configurazione a singola TPU e per i tipi con pod di TPU, consulta Prezzi per Cloud TPU.
Per informazioni sui prezzi dei diversi tipi di GPU e sulle regioni disponibili, fai riferimento ai prezzi delle GPU.

I prodotti di AI Cloud sono conformi alle nostre norme relative allo SLA. Possono offrire garanzie di latenza o disponibilità diverse rispetto ad altri servizi Google Cloud.

Fai il prossimo passo

Inizia a creare su Google Cloud con 300 $ di crediti gratuiti e oltre 20 prodotti Always Free.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud