Notas da versão da Vertex AI

Confira nesta página as atualizações de produção da IA generativa na Vertex AI e na Vertex AI Model Garden. É possível acessá-la periodicamente para consultar avisos sobre recursos novos ou atualizados, correções de bugs, problemas conhecidos e funcionalidades suspensas.

29 de março de 2024

A infraestrutura do modelo MedLM grande foi atualizada para melhorar a latência e a estabilidade. As respostas do modelo podem ser ligeiramente diferentes.

22 de março de 2024

PDFs agora são aceitos como entrada para o modelo de linguagem multimodal do Gemini 1.0 Pro Vision. É possível chamar as APIs diretamente em PDFs ou testá-las no Vertex AI Studio. Para saber mais, consulte Enviar solicitações de comandos multimodais com imagens ou PDF.

19 de março de 2024

Os modelos Anthropic Claude 3 Sonnet e Claude 3 Haiku na Vertex AI geralmente estão disponíveis na Vertex AI.

Os modelos gerenciados Claude 3 Haiku e Claude 3 Sonnet da Anthropic estão disponíveis na Vertex AI. Para usar um modelo Claude na Vertex AI, envie uma solicitação diretamente para o endpoint da API Vertex AI. Para mais informações, consulte Usar os modelos de Claude da Anthropic e os cards de modelos de Claude no Model Garden:

21 de fevereiro de 2024

Modelos abertos do Gemma estão disponíveis.

Os modelos Gemma, uma família de modelos leves e abertos criados a partir da mesma pesquisa e tecnologia usada para criar os modelos do Gemini, estão disponíveis para execução no hardware, em dispositivos móveis ou em serviços hospedados. Para saber mais, consulte Usar modelos abertos do Gemma e o cartão Gemma Model Garden.

15 de fevereiro de 2024

Modelos da Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision

Os modelos de linguagem multimodais do Vertex AI Gemini 1.0 Pro e Gemini 1.0 Pro Vision estão em disponibilidade geral (GA, na sigla em inglês). Eles também foram disponibilizados nas seguintes regiões: europe-west1, europe-west2, europe-west3, europe-west4 e europe-west9.

Para mais informações, consulte os tópicos a seguir:

9 de fevereiro de 2024

O suporte a vídeos com embeddings multimodais está em disponibilidade geral

Os embeddings para dados de vídeo agora estão com disponibilidade geral usando o modelo de embeddings multimodal (multimodalembedding). Para mais informações, consulte a documentação do produto.

Esses recursos geram preços com base no modo que você usa. Para mais informações, consulte Preços.

7 de fevereiro de 2024

Atualizações do Model Garden:

Recurso

Os seguintes modelos foram adicionados:

  • Stable Diffusion XL LCM: o modelo de consistência latente (LCM, na sigla em inglês) aprimora a geração de texto para imagem em modelos de difusão latente, permitindo a criação de imagens com mais rapidez e de alta qualidade em menos etapas.
  • LLaVA 1.5: implantar modelos LLaVA 1.5.
  • PyTorch-ZipNeRF: o modelo PyTorch-ZipNeRF é uma implementação de última geração do algoritmo ZipNeRF no framework do Pytorch, projetado para uma reconstrução 3D eficiente e precisa a partir de imagens 2D.
  • LLaMA 2 (quantizado): uma versão quantizada dos modelos Llama 2 da Meta.
  • WizardLM: o WizardLM é um modelo de linguagem grande (LLM) desenvolvido pela Microsoft, ajustado com instruções complexas adaptando o método Evol-Instruct.
  • WizardCoder: o WizardCoder é um modelo de linguagem grande (LLM) desenvolvido pela Microsoft, ajustado com instruções complexas adaptando o método Evol-Instruct ao domínio do código.
  • AutoGluon: com o AutoGluon, é possível treinar e implantar modelos de machine learning de alta acurácia e aprendizado profundo para dados tabulares.
  • LaMa (retoque de máscaras grandes): use o Large Mask Inpainting com convoluções de Fourier rápidas (FFCs, na sigla em inglês), uma alta perda perceptível de campo receptivo e grandes máscaras de treinamento para retoques de imagens com resolução robusta.

Alterado

  • Adição de botão de ajuste com um clique e notebooks dedicados de implantação, ajuste, quantização e avaliação para Llama 2.
  • Adição de botão de implantação com um clique para mais de 20 modelos com artefatos OSS pré-treinados, incluindo Salesforce/blip-image-captioning-base e timbrooks/instruct-pix2pix.
  • Compatibilidade de CodeLlaMA70b com notebooks e o botão de implantação com um clique.
  • Adição de notebooks de ajuste para modelos Mistral.
  • Adição de notebooks de disponibilização para Stable Video Diffusion Img2Vid XT (para fins de pesquisa).

12 de janeiro de 2024

O ajuste de modelos para os modelos textembedding-gecko e textembedding-gecko-multilingual está em disponibilidade geral. É possível usar o ajuste supervisionado para ajustar o modelo textembedding-gecko. Para mais informações, consulte Ajustar embeddings de texto.

8 de janeiro de 2024

O AutoSxS avalia os LLMs lado a lado

A ferramenta de avaliação automática lado a lado (AutoSxS, na sigla em inglês) está disponível em "Prévia" para teste A/B do desempenho dos LLMs ou das previsões pré-geradas. Ela é comparável a revisores humanos, mas é mais rápida, disponível sob demanda e mais econômica.

5 de janeiro de 2024

Expansão regional da IA generativa na Vertex AI

Os recursos da IA generativa na Vertex AI para previsão em lote e avaliação de modelos estão disponíveis em mais 12 regiões do Google Cloud.

18 de dezembro de 2023

Atualizações do Model Garden:

13 de dezembro de 2023

Modelos Vertex AI Gemini Pro e Gemini Pro Vision

Os modelos de linguagem multimodais do Vertex AI Gemini Pro e do Gemini Pro Vision estão disponíveis em Pré-lançamento. Para mais informações, consulte estes tópicos:

Disponibilidade geral do Imagen 2

A versão 005 do modelo de geração de imagem do Imagen (imagegeneration@005) agora tem disponibilidade geral para tarefas de geração de imagens. Essa versão do modelo agora é o padrão para tarefas de geração de imagem. Para mais informações, consulte a documentação do produto.

Para informações gerais sobre modelos e versões do Imagen, consulte Versões e ciclo de vida de modelos do Imagen.

12 de dezembro de 2023

Modelo de embedding de texto 003 (textembedding-gecko@003) disponível

A versão estável atualizada do modelo de fundação de embedding de texto, textembedding-gecko@003, está disponível. Os recursos do textembedding-gecko@003 melhoraram a qualidade em comparação com as versões estáveis anteriores, textembedding-gecko@001 e textembedding-gecko@002. Para mais informações sobre as versões do modelo, consulte Versões e ciclo de vida de modelos.

8 de dezembro de 2023

Atualização do controle de segurança da IA generativa na Vertex AI

O controle de segurança da transparência no acesso (AXT, na sigla em inglês) está disponível para os seguintes recursos:

  • embeddings para previsão on-line multimodal
  • Imagen na previsão on-line da Vertex AI
  • Imagen no ajuste da Vertex AI

6 de dezembro de 2023

Modelos de texto atualizados

A versão @002 dos modelos de texto, chat, código e chat de código está disponível. As versões de modelo @002 incluem respostas de comando aprimoradas. Os modelos @002 são:

  • text-bison@002
  • chat-bison@002
  • code-bison@002
  • codechat-bison@002

Para garantir que você sempre use a versão de modelo stable, especifique o identificador com o número da versão. Por exemplo, text-bison@002. Para mais informações, consulte Versões e ciclo de vida do modelo.

5 de dezembro de 2023

Recurso

O embasamento do modelo está disponível na Prévia. Use o embasamento para conectar os modelos text-bison e chat-bison a repositórios de dados não estruturados na Vertex AI para Pesquisa. O embasamento permite que os modelos acessem e usem as informações nos repositórios de dados para gerar respostas mais aprimoradas e detalhadas. Para mais informações, consulte Visão geral do embasamento.

1 de dezembro de 2023

Mudar

As seguintes atualizações de model_garden_name estão disponíveis:

30 de novembro de 2023

Recurso

Um tamanho de modelo para o PaLM 2 para texto tem disponibilidade geral (GA). O modelo text-unicorn oferece melhor qualidade de resposta para um conjunto de tarefas complexas de raciocínio em comparação com o modelo text-bison. Para mais detalhes, consulte Informações do modelo.

17 de novembro de 2023

A API ComputeToken está disponível em pré-lançamento

A API CountToken está disponível em (Visualização). Você pode usar essa API para acessar uma lista de tokens de um prompt específico. Um token é uma maneira de representar uma sequência comum de caracteres encontrados em uma entrada de texto. Para saber mais, consulte Receber uma lista de tokens.

10 de novembro de 2023

IA generativa na Vertex AI

Os controles de segurança estão disponíveis para outros recursos da IA generativa na Vertex AI.

3 de novembro de 2023

Atualizações do Model Garden

Recurso

Os modelos a seguir foram adicionados ao Model Garden:

  • ImageBind: modelo de embedding multimodal.
  • Vicuna v1.5: LLM ajustado com base no Llama2.
  • OWL-ViT v2: modelo de detecção de objetos de vocabulário aberto SoTA.
  • DITO: modelo de detecção de objetos de vocabulário aberto SoTA.
  • NLLB: modelo de tradução multilíngue.
  • Mistral-7B: LLM SoTA em tamanho pequeno.
  • BioGPT: LLM ajustado para o domínio biomédico.
  • BiomedCILP: modelo de fundação multimodal ajustado para o domínio biomédico.

Para ver uma lista de todos os modelos disponíveis, consulte Conhecer modelos no Model Garden.

Alterado

  • Melhoria na capacidade de processamento para disponibilização do modelo de linguagem. Para detalhes, consulte Como disponibilizar modelos de linguagem grandes de código aberto com eficiência no Model Garden. Os notebooks nos cards de modelo relevantes foram atualizados de acordo.
  • Velocidade de inferência até duas vezes mais rápida em comparação com a implementação original para modelos Stable Diffusion 1.5, 2.1 e XL.
  • Melhoria no fluxo de trabalho do botão Implantar em todos os cards de modelo compatíveis.
  • Atualização dos notebooks para o Llama2, OpenLlama e Falcon Instruct com especificações de máquina sugeridas para disponibilização de modelos e dockers de arcabouço de avaliação da EleutherAI para avaliação de modelos.

Novas versões de modelo estáveis textembedding-gecko e textembedding-gecko-multilingual

As seguintes versões de modelo estáveis estão disponíveis na IA generativa na Vertex AI:

  • textembedding-gecko@002
  • textembedding-gecko-multilingual@001

Para mais informações sobre as versões do modelo, consulte Versões e ciclo de vida de modelos.

2 de novembro de 2023

A IA generativa na Vertex AI pode ser acessada por 12 APIs regionais na América do Norte, Europa e Ásia. As APIs regionais permitem que os clientes controlem onde os dados serão armazenados em repouso.

3 de novembro de 2023

O ajuste de modelo para chat-bison@001 está disponível para todos os usuários (GA).

O ajuste de chat-bison@001 oferece suporte às visualizações de métricas do TensorBoard. Para detalhes, consulte Métricas de ajuste e avaliação.

4 de outubro de 2023

O ajuste de modelo para textembedding-gecko está disponível em pré-lançamento

É possível usar o ajuste supervisionado para ajustar o modelo do textembedding-gecko. Esse recurso está na (Visualização). Para mais informações, consulte Ajustar embeddings de texto.

1º de setembro de 2023

Atualização de preços

O preço do text-bison foi reduzido para US$ 0,0005 por 1.000 caracteres de entrada e saída. Para mais detalhes, consulte Preços da Vertex AI.

29 de agosto de 2023

Nova IA generativa de modelos da Vertex AI e suporte expandido a idiomas

A IA generativa na Vertex AI foi atualizado para incluir novos candidatos a modelos de idiomas (modelos mais recentes), modelos de idiomas com suporte de tokens de entrada e saída de até 32 mil e mais idiomas compatíveis. Para mais informações, consulte Modelos disponíveis e Versões e ciclo de vida do modelo.

Respostas de stream de modelos de IA generativa

O suporte ao streaming de modelos de IA generativa está com disponibilidade geral (GA, na sigla em inglês). Depois que você envia um prompt, o modelo retorna tokens de resposta à medida que são gerados, em vez de esperar que toda a saída esteja disponível.

Os modelos compatíveis são:

  • text-bison
  • chat-bison
  • code-bison
  • codechat-bison

Para saber mais, consulte Transmitir respostas de modelos de IA generativa.

O ajuste supervisionado para o modelo text-bison está em disponibilidade geral (GA, na sigla em inglês)

O ajuste supervisionado para o modelo text-bison está em disponibilidade geral (GA).

O ajuste do modelo chat-bison está disponível na Visualização

É possível usar o ajuste supervisionado para ajustar o modelo do chat-bison. Esse recurso está na (Visualização). Para mais informações, consulte Ajustar modelos de texto.

Novo modelo de incorporação disponível em pré-lançamento

A IA generativa em usuários da Vertex AI pode criar embeddings usando um novo modelo treinado em uma ampla variedade de idiomas que não são o inglês. O modelo está em (Visualização).

  • textembedding-gecko-multilingual

Para saber mais, consulte Obter embeddings de texto.

O ajuste de objeto e o ajuste de estilo do Imagen possuem disponibilidade geral (GA)

O Imagen na Vertex AI oferece os seguintes recursos do GA:

  • Ajuste do modelo de assunto (ajuste padrão)*
  • Estilo do ajuste do modelo*

* Recurso de acesso restrito.

Para mais informações sobre o Imagen na Vertex AI ou como ter acesso à GA restrita, consulte a Visão geral do Imagen na Vertex AI.

Aprendizado por reforço com feedback humano (RLHF, na sigla em inglês) para text-bison

A IA generativa no modelo de fundação de geração de texto da Vertex AI (text-bison) é compatível com o ajuste de RLHF. O recurso de ajuste do RLHF está disponível (Visualização). Para mais informações, consulte Usar ajuste de modelo RLHF.

Suporte com a linguagem das APIs do Vertex AI Codey

As APIs do Vertex AI Codey são compatíveis com outras linguagens de programação. Para mais informações, consulte Linguagens de codificação compatíveis.

As APIs Vertex AI Codey oferecem suporte a ajustes supervisionados

Os modelos de APIs Codey da Vertex AI oferecem suporte a ajustes supervisionados nos chats de código (codechat-bison) e geração de código (code-bison). O ajuste supervisionado para modelos de APIs do Vertex AI Codey está em (Visualização). Para mais informações, consulte Ajustar modelos de código.

Avaliação de modelos com base em métricas

É possível avaliar o desempenho dos modelos de fundação e ajustados em um conjunto de dados de avaliação para classificação, resumo, resposta a perguntas e geração de texto geral. Esse recurso está disponível em (Visualização)

Para saber mais, consulte Avaliar o desempenho do modelo.

API CountToken disponível em pré-lançamento

A API CountToken está disponível em (Visualização). Use essa API para receber a contagem de tokens e o número de caracteres faturáveis de um comando. Para saber mais, consulte Contagem de tokens.

9 de agosto de 2023

Incorporações multimodais do Imagen em disponibilidade geral

O Imagen na Vertex AI oferece os seguintes recursos do GA:

  • Embeddings multimodais

Esse recurso gerará preços diferentes se você usar a entrada de imagem ou de texto. Para mais informações, consulte a página do recurso de embeddings multimodais.

21 de agosto de 2023

Atualização de parâmetros de ajuste do modelo

Os jobs de ajuste de modelos aceitam parâmetros opcionais para avaliação de modelos e integração do Vertex AI TensorBoard. Isso permite avaliar o modelo e gerar visualizações com um único comando. Para mais informações, consulte Criar um job de ajuste de modelo.

28 de julho de 2023

Atualização de parâmetros de ajuste do modelo

O parâmetro learning_rate no ajuste do modelo é learning_rate_multiplier. Para usar a taxa de aprendizado padrão do modelo ou do ajuste, use o valor learning_rate_multiplier padrão de 1.0.

Se você não configurou o learning_rate antes, nenhuma ação é necessária. Se você estiver usando tuning_method=tune_v2 com o modelo de pipeline v2.0.0 (SDK do Python v1.28.1+), a taxa de aprendizado recomendada será 0,0002. Para converter o learning_rate personalizado em learning_rate_multiplier, calcule da seguinte maneira:

learing_rate_multiplier = custom_learning_rate_value / 0.0002

18 de julho de 2023

Atualizações do ajuste do modelo para text-bison

  • O pipeline de ajuste de categoria superior oferece ajustes mais eficientes e melhor desempenho em texto bison.
  • Nova região de ajuste (us-central1) disponível com suporte a GPUs.
  • O novo parâmetro learning_rate permite ajustar o tamanho da etapa em cada iteração.

Para mais informações, consulte Ajustar os modelos de fundação da linguagem.

Chirp GA

Chirp está em disponibilidade geral (GA, na sigla em inglês). Para mais detalhes, consulte as seguintes páginas:

17 de julho de 2023

Recursos do Imagen na Vertex AI em disponibilidade geral

O Imagen na Vertex AI oferece os seguintes recursos do GA:

* Recurso de acesso restrito.

Para mais informações sobre o Imagen ou como ter acesso a recurso em fase de pré-lançamento ou restritos do GA, consulte a Visão geral do Imagen na Vertex AI.

Suporte para geração de rostos humanos

O Imagen é compatível com a geração de rostos humanos para os seguintes recursos:

* Recurso de acesso restrito.

A geração de rostos humanos é ativada por padrão, exceto para imagens com crianças ou celebridades. Para mais informações, consulte as diretrizes de uso.

Suporte a idiomas adicionais

A API Vertex AI PaLM agora é compatível com as seguintes linguagens:

  • Espanhol (es)
  • Coreano (ko)
  • Hindi (hi)
  • Chinês (zh)

Para conferir a lista completa, consulte Idiomas compatíveis.

13 de julho de 2023

Suporte em lote para PaLM 2 para texto

O suporte solicitações de texto em lote (text-bison) está disponível em (GA). É possível verificar os preços do modelo chat-bison na página de preços da Vertex AI.

10 de julho de 2023

PaLM 2 para o Chat

Suporte para Chat (chat-bison) está disponível em (GA). É possível verificar os preços do modelo chat-bison na página de preços da Vertex AI.

29 de junho de 2023

APIs do Vertex AI Codey

As APIs do Vertex AI Codey estão com disponibilidade geral (GA, na sigla em inglês). Use as APIs do Vertex AI Codey para criar soluções com geração de código, conclusão de código e chat por código. Como as APIs do Vertex AI Codey são de disponibilidade geral, elas serão cobradas. Para saber mais sobre os preços, consulte A IA generativa na página de preços da Vertex AI.

Os modelos nesta versão incluem:

  • code-bison (geração de códigos)
  • codechat-bison (chat de código)
  • code-gecko (preenchimento de códigos)

O número máximo de tokens de entrada foi aumentado de 4.096 para 6.144 tokens para code-bison e codechat-bison, para permitir comandos mais longos e histórico de chat. Os tokens máximos para saída foram aumentados de 1.024 para 2.048 para code-bison e codechat-bison para permitir respostas mais longas.

Outras linguagens de programação são suportadas. Para mais informações, consulte Linguagens de codificação compatíveis.

Vários conjuntos de dados de ajuste fino foram removidos dos modelos code-bison e codechat-bison para implementar as seguintes melhorias:

  • Chats em excesso.
  • Artefatos, como caracteres NBSP (espaço sem quebra).
  • Respostas de código de baixa qualidade.

Para aprender sobre nuvens horizontais, consulte Certificações da Vertex AI.

15 de junho de 2023

PaLM 2 para o Chat

O modelo chat-bison foi atualizado para seguir melhor as instruções no campo context. Para informações sobre como criar comandos de chat para chat-bison, consulte Criar comandos de chat.

7 de junho de 2013

APIs PaLM de texto e embeddings e Vertex AI Studio

A IA generativa na Vertex AI está disponível em (disponibilidade geral). Com esse lançamento de recursos, é possível usar a API do Vertex AI PaLM para gerar modelos de IA que podem ser testados, ajustados e implantados nos aplicativos com tecnologia de IA. Como esses recursos são de disponibilidade geral, você estará sujeito a custos de uso se usar as APIs do PaLM text-bison e textembedding-gecko. Para saber mais sobre os preços, consulte a página de preços da Vertex AI.

Os recursos e os modelos desta versão incluem:

  • PaLM 2 para texto: text-bison
  • Embedding de texto: textembedding-gecko
  • Vertex AI Studio para linguagem

Model Garden

O Model Garden está disponível em (disponibilidade geral). O Model Garden é uma plataforma que ajuda a descobrir, testar, personalizar e implantar a Vertex AI e selecionar modelos de OSS. Esses modelos variam de ajustáveis a específicos de tarefas e estão todos disponíveis na página "Model Garden" no console do Google Cloud.

Para começar, consulte Explorar APIs e modelos de IA no Model Garden.

APIs do Vertex AI Codey

As APIs do Vertex AI Codey estão em (Visualização). Com as APIs do Codey, as APIs de geração, conclusão e chat por código podem ser usadas em qualquer projeto do Google Cloud sem lista de permissões. As APIs podem ser acessadas na região us-central1. As APIs do Codey podem ser usadas no Vertex AI Studio ou de maneira programática em comandos REST.

Para começar, consulte a Visão geral dos modelos de código.

10 de maio de 2023

IA generativa na Vertex AI

A IA generativa na Vertex AI está disponível em (Visualização). Com esse lançamento de recursos, é possível usar a API do Vertex AI PaLM para gerar modelos de IA que podem ser testados, ajustados e implantados nos aplicativos com tecnologia de IA.

Os recursos e os modelos desta versão incluem:

  • PaLM 2 para texto: text-bison
  • PaLM 2 para Chat: chat-bison
  • Embedding de texto: textembedding-gecko
  • Vertex AI Studio para linguagem
  • Como ajustar o PaLM 2
  • SDK Vertex AI v1.25, que inclui novos recursos, como TextGenerationModel (text-bison), ChatModel (chat-bison), TextEmbedModel (textembedding-gecko@001)

É possível interagir com os recursos de IA generativa na Vertex AI usando a Vertex AI Studio no console do Google Cloud, a API do Vertex AI e o SDK da Vertex AI para Python.

Model Garden

O Model Garden está disponível em (prévia). O Model Garden é uma plataforma que ajuda a descobrir, testar, personalizar e implantar a Vertex AI e selecionar modelos de OSS. Esses modelos variam de ajustáveis a específicos de tarefas e estão todos disponíveis na página "Model Garden" no console do Google Cloud.