Versionshinweise zu generativer KI in Vertex AI

Auf dieser Seite werden die Produktionsaktualisierungen für Generative AI für Vertex AI und Vertex AI Model Garden dokumentiert. Prüfen Sie diese Seite regelmäßig auf Hinweise zu neuen oder aktualisierten Features, Fehlerkorrekturen, bekannten Problemen und verworfenen Funktionen.

29. März 2024

Die MedLM-Large Modellinfrastruktur wurde aktualisiert, um die Latenz und Stabilität zu verbessern. Die Antworten des Modells können geringfügig abweichen.

22. März 2024

PDFs werden jetzt als Eingabe für das multimodale Sprachmodell von Gemini 1.0 Pro Vision unterstützt. Sie können die APIs direkt mit PDFs aufrufen oder in Vertex AI Studio ausprobieren. Weitere Informationen finden Sie unter Multimodale Prompt-Anfragen mit Bildern oder PDF senden.

19. März 2024

Die Modelle von Anthropic Claude 3 Sonnet und Claude 3 Haiku auf Vertex AI sind allgemein in Vertex AI verfügbar.

Die verwalteten Modelle Claude 3 Haiku und Claude 3 Sonnet von Anthropic sind in Vertex AI verfügbar. Wenn Sie ein Claude-Modell für Vertex AI verwenden möchten, senden Sie eine Anfrage direkt an den API-Endpunkt von Vertex AI. Weitere Informationen finden Sie unter Claude-Modelle von Anthropic verwenden und die Claude-Modellkarten in Model Garden:

21. Februar 2024

Offene Genom-Modelle sind verfügbar.

Gemma-Modelle, eine Familie einfacher, offener Modelle, die auf derselben Forschung und Technologie basieren wie die Gemini-Modelle, können auf Ihrer Hardware, Ihren Mobilgeräten oder gehosteten Diensten ausgeführt werden. Weitere Informationen finden Sie unter Offene Gemma-Modelle verwenden und auf der Gemma Model Garden-Karte.

15. Februar 2024

Vertex AI Gemini 1.0 Pro und Gemini 1.0 Pro Vision-Modelle

Die multimodalen Sprachmodelle von Vertex AI Gemini 1.0 Pro und Gemini 1.0 Pro Vision sind allgemein verfügbar. Sie wurden auch in den folgenden Regionen zur Verfügung gestellt: europe-west1, europe-west2, europe-west3, europe-west4 und europe-west9.

Weitere Informationen finden Sie unter folgenden Links:

9. Februar 2024

Die Unterstützung von Videos für multimodale Einbettungen ist allgemein verfügbar

Einbettungen für Videodaten sind jetzt mit dem multimodalen Einbettungsmodell (multimodalembedding) allgemein verfügbar. Weitere Informationen finden Sie in der Produktdokumentation.

Die Preise für diese Features richten sich nach dem verwendeten Modus. Weitere Informationen finden Sie unter Preise.

7. Februar 2024

Model Garden-Updates:

Funktion

Die folgenden Modelle wurden hinzugefügt:

  • Stable Diffusion XL LCM: Das LCM (Laten Consistency Model) verbessert die Text-zu-Bild-Generierung in latenten Diffusionsmodellen, da es eine schnellere und hochwertige Bilderstellung mit weniger Schritten ermöglicht.
  • Stellen Sie LLaVA 1.5: LLaVA 1.5-Modelle bereit.
  • PyTorch-ZipNeRF: Das Pytorch-ZipNeRF-Modell ist eine hochmoderne Implementierung des ZipNeRF-Algorithmus im Pytorch-Framework, die für eine effiziente und genaue 3D-Rekonstruktion aus 2D-Bildern entwickelt wurde.
  • LLaMA 2 (Quantisiert): Eine quantisierte Version der Llama 2-Modelle von Meta.
  • WizardLM: WizardLM ist ein von Microsoft entwickeltes Large Language Model (LLM), das durch Anpassung der Evol-Instruct-Methode auf komplexe Anweisungen optimiert wurde.
  • WizardCoder: WizardCoder ist ein von Microsoft entwickeltes Large Language Model (LLM), das auf komplexe Anweisungen abgestimmt ist, indem die Evol-Instruct-Methode an die Codedomain angepasst wird.
  • AutoGluon: Mit AutoGluon können Sie hochpräzise ML- und Deep-Learning-Modelle für tabellarische Daten trainieren und bereitstellen.
  • Lama (Large Mask Inpainting): Verwenden Sie Large Mask Inpainting mit schnellen Fourier-Faltungen (FFCs), einem hohen empfänglichen Feldwahrnehmungsverlust und großen Trainingsmasken für auflösungsstarkes Bild-Inpainting.

Geändert

  • Es wurden eine Schaltfläche für die Feinabstimmung mit einem Klick sowie dedizierte Notebooks für Bereitstellung, Feinabstimmung, Quantisierung und Bewertung für Llama 2 hinzugefügt.
  • Es wurde eine Schaltfläche zur Bereitstellung mit nur einem Klick für mehr als 20 Modelle mit vortrainierten OSS-Artefakten hinzugefügt, darunter Salesforce/blip-image-captioning-base und timbrooks/instruct-pix2pix.
  • Unterstützter CodeLlaMA70b mit Notebooks und der Schaltfläche für die Bereitstellung mit einem Klick.
  • Abstimmungs-Notebooks für Mistral-Modelle wurden hinzugefügt.
  • Es wurden Bereitstellungs-Notebooks für Stable Video Diffusion Img2Vid XT (zu Forschungszwecken) hinzugefügt.

12. Januar 2024

Die Modellabstimmung für die Modelle textembedding-gecko und textembedding-gecko-multilingual ist in GA verfügbar. Sie können die überwachte Feinabstimmung verwenden, um das Modell textembedding-gecko zu optimieren. Weitere Informationen finden Sie unter Textmodelle einbetten.

8. Januar 2024

AutoSxS wertet LLMs nebeneinander aus

Das automatische Side-by-Side-Evaluierungstool (AutoSxS) ist in der Vorschau verfügbar, um A/B-Tests zur Leistung Ihrer LLMs oder vorab generierten Vorhersagen durchzuführen. Es ist vergleichbar mit menschlichen Evaluatoren, ist aber schneller, bei Bedarf verfügbar und kostengünstiger.

5. Januar 2024

Generative AI in der regionalen Vertex AI-Erweiterung

Generative AI in Vertex AI-Features für Batchvorhersagen und Modellbewertung sind in 12 zusätzlichen Google Cloud-Regionen verfügbar.

18. Dezember 2023

Model Garden-Updates:

13. Dezember 2023

Vertex AI Gemini Pro und Gemini Pro Vision-Modelle

Die multimodalen Sprachmodelle von Vertex AI Gemini Pro und Gemini Pro Vision sind in der Vorschau verfügbar. Weitere Informationen finden Sie unter folgenden Links:

Imagen 2 – Allgemeine Verfügbarkeit

Die 005-Version des Imagen-Bildgenerierungsmodells (imagegeneration@005) ist allgemein für Bild-Generierungsaufgaben verfügbar. Diese Modellversion ist die Standardversion für Aufgaben zur Bildgenerierung. Weitere Informationen finden Sie in der Produktdokumentation.

Allgemeine Informationen zu Imagen-Modellen und -Versionen finden Sie unter Imagen-Modellversionen und -lebenszyklus.

12. Dezember 2023

Texteinbettungsmodell 003 (textembedding-gecko@003) verfügbar

Die aktualisierte stabile Version des Basismodells für Texteinbettungen textembedding-gecko@003 ist verfügbar. textembedding-gecko@003 bietet eine bessere Qualität im Vergleich zu den vorherigen stabilen Versionen textembedding-gecko@001 und textembedding-gecko@002. Weitere Informationen zu Modellversionen finden Sie unter Modellversionen und Lebenszyklus.

08. Dezember 2023

Aktualisierung der generativen KI in Vertex AI-Sicherheitseinstellungen

Die AXT-Sicherheitssteuerung (Access Transparency) ist für die folgenden Features verfügbar:

  • Einbettungen für multimodale Onlinevorhersagen
  • Imagen in Vertex AI-Onlinevorhersage
  • Imagen in Vertex AI-Abstimmung

6. Dezember 2023

Aktualisierte Textmodelle

Die Version @002 der Modelle für Text, Chat, Code und Code-Chat ist verfügbar. Die @002-Modellversionen enthalten verbesserte Prompt-antworten. Die @002-Modelle sind:

  • text-bison@002
  • chat-bison@002
  • code-bison@002
  • codechat-bison@002

Damit Sie immer die Modellversion, die stabil verwenden, geben Sie die Modellkennzeichnung mit der Versionsnummer an. Beispiel: text-bison@002. Weitere Informationen finden Sie unter Modellversionen und Lebenszyklus.

5. Dezember 2023

Funktion

Modell-Fundierung ist in der Vorschau verfügbar. Verwenden Sie Fundierung, um die Modelle text-bison und chat-bison mit unstrukturierten Datenspeichern in Vertex AI Search zu verbinden. Mit Fundierung können Modelle auf die Informationen in den Daten-Repositories zugreifen und diese verwenden, um erweiterte und differenzierte Antworten zu generieren. Weitere Informationen finden Sie unter Fundierungsübersicht.

1. Dezember 2023

Ändern

Die folgenden model_garden_name-Aktualisierungen sind verfügbar:

30. November 2023

Funktion

Eine Modellgröße für PaLM 2 for Text ist allgemein verfügbar (GA). Das text-unicorn-Modell bietet eine bessere Antwortqualität für eine Reihe komplexerer Grundaufgaben im Vergleich zum text-bison-Modell. Weitere Informationen finden Sie unter Modellinformationen.

17. November 2023

ComputeToken API ist in der Vorschau verfügbar

Die ComputeToken API ist in der (Vorschau) verfügbar. Mit dieser API können Sie eine Liste von Tokens für einen bestimmten Prompt abrufen. Ein Token ist eine Möglichkeit, eine gemeinsame Folge von Zeichen in einer Texteingabe darzustellen. Weitere Informationen finden Sie unter Liste der Tokens abrufen.

10. November 2023

Generative AI in Vertex AI

Sicherheitskontrollen sind für zusätzliche Features der generativen KI in Vertex AI verfügbar.

3. November 2023

Model Garden-Updates

Funktion

Die folgenden Modelle wurden zu Model Garden hinzugefügt:

  • ImageBind: Multimodales Einbettungsmodell.
  • Vicuna v1.5: abgestimmtes LLM basierend auf llama2.
  • OWL-ViT v2: Offenes Vokabular-Objekterkennungsmodell von SoTA.
  • DITO: SoTA Model für offene Vokabularerkennungsaufgaben.
  • NLLB: Mehrsprachiges Übersetzungsmodell.
  • Mistral-7B: SoTA LLM in kleiner Größe.
  • BioGPT: LLM wurde für die biomedizinische Bereich optimiert.
  • BiomedCILP: Multimodales Foundation Modell, das für die biomedizinische Bereich optimiert wurde

Eine Liste aller verfügbaren Modelle finden Sie unter Modelle in Model Garden entdecken.

Geändert

  • Verbesserter Bereitstellungs-Durchsatz von Sprachmodellen Weitere Informationen finden Sie unter Open-Source-Large Language Models auf Model Garden effizient bereitstellen. Die Notebooks in den entsprechenden Modellkarten wurden entsprechend aktualisiert.
  • Inferenz im Vergleich zur ursprünglichen Implementierung für Stable Diffusion 1.5-, 2.1- und XL-Modelle bis zu zweimal schneller.
  • Der Workflow der Schaltfläche Bereitstellen in allen unterstützten Modellkarten wurde verbessert.
  • Aktualisierte die Notebooks für Llama2, OpenLlama und Falcon Instruct mit vorgeschlagenen Maschinenspezifikation für die Modellbereitstellung und mit dem Bewertungs-Harnisch Dockers von EleutherAI für die Modellbewertung.

Neue stabile Modellversionen textembedding-gecko und textembedding-gecko-multilingual

Die folgenden stabilen Modellversionen sind in der generativen KI in Vertex AI verfügbar:

  • textembedding-gecko@002
  • textembedding-gecko-multilingual@001

Weitere Informationen zu Modellversionen finden Sie unter Modellversionen und Lebenszyklus.

2. November 2023

Auf generative KI in Vertex AI kann über 12 regionale APIs in Nordamerika, Europa und Asien zugegriffen werden. Mit regionalen APIs können Kunden steuern, wo Daten im Ruhezustand gespeichert werden.

3. November 2023

Die Modellabstimmung für chat-bison@001 ist allgemein verfügbar (GA).

Die Abstimmung chat-bison@001 unterstützt TensorBoard-Messwertvisualisierungen. Weitere Informationen finden Sie unter Messwerte zur Abstimmung und Evaluierung.

4. Oktober 2023

Die Modelloptimierung für textembedding-gecko ist in der Vorschau verfügbar

Sie können jetzt die überwachte Abstimmung verwenden, um das textembedding-gecko-Modell zu optimieren. Dieses Feature befindet sich in der (Vorschau). Weitere Informationen finden Sie unter Textmodelle einbetten.

1. September 2023

Preisaktualisierung

Die Preise für text-bison wurden auf 0,0005 $ pro 1.000 Eingabe- und Ausgabezeichen reduziert. Weitere Informationen finden Sie unter Vertex AI-Preise.

29. August 2023

Neue Modelle der generativen KI für Vertex AI und erweiterte Sprachunterstützung

Die Generative AI für Vertex AI wurde aktualisiert. Sie beinhaltet neue Sprachmodellkandidaten (neueste Modelle), Sprachmodelle, die Eingabe- und Ausgabetokens von bis zu 32.000 unterstützen, und weitere unterstützte Sprachen. Weitere Informationen finden Sie unter Verfügbare Modelle und Modellversionen und Lebenszyklus.

Streamantworten von Modellen der generativen KI.

Die Unterstützung für das Streaming von Modellen der generativen KI ist allgemein verfügbar (GA). Nachdem Sie einen Prompt gesendet haben, gibt das Modell Antworttokens so zurück, wie sie generiert werden, anstatt auf die Verfügbarkeit der gesamten Ausgabe zu warten.

Unterstützte Modelle sind:

  • text-bison
  • chat-bison
  • code-bison
  • codechat-bison

Weitere Informationen finden Sie unter Antworten von Modellen der generativen KI streamen.

Die überwachte Abstimmung für das Modell text-bison ist allgemein verfügbar.

Die überwachte Abstimmung für das Modell text-bison ist allgemein verfügbar (GA).

Die Modellabstimmung für das Modell chat-bison ist jetzt in der Vorschau verfügbar

Sie können jetzt die überwachte Abstimmung verwenden, um das chat-bison-Modell zu optimieren. Dieses Feature befindet sich in der (Vorschau). Weitere Informationen finden Sie unter Textmodelle verfeinern.

Neues Einbettungsmodell in der Vorschau verfügbar

Die Nutzer von Generative AI in Vertex AI können nun Einbettungen mit einem neuen Modell erstellen, das mit einer Vielzahl von nicht englischsprachigen Sprachen trainiert wurde. Das Modell befindet sich in der (Vorschau).

  • textembedding-gecko-multilingual

Weitere Informationen finden Sie unter Texteinbettungen abrufen.

Imagen Themenabstimmung und Stilabstimmung jetzt allgemein verfügbar (GA)

Imagen in Vertex AI bietet die folgenden GA-Features:

  • Subject-Modellabstimmung (Standardabstimmung)*
  • Stil-Modelabstimmung*

* Funktion für eingeschränkten Zugriff

Weitere Informationen zu Imagen in Vertex AI oder zum Zugriff auf eingeschränkte GA finden Sie in der Übersicht zu Imagen in Vertex AI.

Bestärkendes Lernen durch die Feinabstimmung menschlichen Feedbacks (RLHF) für text-bison

Das Textgenerierungsmodell (text-bison) von Generative AI in Vertex AI unterstützt jetzt die RLHF-Abstimmung. Die RLHF-Abstimmungsfunktion befindet sich in der (Vorschau). Weitere Informationen finden Sie unter RLHF-Modellabstimmung verwenden.

Sprachunterstützung für Vertex AI Codey APIs

Vertex AI Codey APIs unterstützen zusätzliche Programmiersprachen. Weitere Informationen finden Sie unter Unterstützte Programmiersprachen.

Vertex AI Codey APIs unterstützen überwachte Abstimmung

Der Code-Chat (codechat-bison) und Codegenerierung (code-bison) Die Vertex AI Codey APIs-Modelle unterstützen die überwachte Abstimmung. Die Überwachung der Feinabstimmung für die Modelle der Vertex AI Codey APIs befindet sich in der (Vorschau). Weitere Informationen finden Sie unter Codemodelle verfeinern.

Messwertbasierte Modellbewertung

Sie können die Leistung von Foundation Models und abgestimmten Modellen anhand eines Bewertungs-Datasets für die Klassifizierung, Zusammenfassung, Beantwortung von Fragen und allgemeine Textgenerierung bewerten. Dieses Feature ist in der (Vorschau) verfügbar.

Weitere Informationen finden Sie unter Modellleistung bewerten.

CountToken API in der Vorschau verfügbar

Die CountToken API ist in der (Vorschau) verfügbar. Mit dieser API können Sie die Anzahl der Tokens und die Anzahl der abrechenbaren Zeichen für einen Prompt abrufen. Weitere Informationen finden Sie unter Tokenanzahl abrufen.

9. August 2023

Multimodale Imagen-Einbettungen in GA verfügbar

Imagen in Vertex AI bietet das folgende GA-Feature:

  • Multimodale Einbettungen

Für diese Funktion fallen andere Preise an, je nachdem, ob Sie eine Bild- oder Texteingabe verwenden. Weitere Informationen finden Sie auf der Funktionsseite Multimodale Einbettungen.

21. August 2023

Aktualisierung des Parameters zur Modellabstimmung

Modellabstimmungsjobs akzeptieren optionale Parameter für die Modellbewertung und die Einbindung von Vertex AI TensorBoard. So können Sie Ihr Modell bewerten und Visualisierungen mit einem einzigen Befehl generieren. Weitere Informationen finden Sie unter Modellabstimmungsjob erstellen.

28. Juli 2023

Aktualisierung des Parameters zur Modellabstimmung

Der Parameter learning_rate bei der Modellabstimmung ist jetzt learning_rate_multiplier. Wenn Sie die Standard-Lernrate des Modells oder der Abstimmungsmethode verwenden möchten, verwenden Sie den Standardwert learning_rate_multiplier von 1.0.

Wenn Sie learning_rate noch nicht konfiguriert haben, sind keine Maßnahmen erforderlich. Wenn Sie tuning_method=tune_v2 mit der Pipelinevorlage v2.0.0 (Python SDK v1.28.1+) verwenden, beträgt die empfohlene Lernrate 0,0002. So konvertieren Sie Ihr benutzerdefiniertes learning_rate in learning_rate_multiplier:

learing_rate_multiplier = custom_learning_rate_value / 0.0002

18. Juli 2023

Updates der Modelloptimierung für text-bison

  • Die aktualisierte Abstimmungspipeline bietet eine effizientere Abstimmung und eine bessere Leistung für Text-bison.
  • Neue Optimierungsregion (us-central1) mit GPU-Unterstützung verfügbar.
  • Mit dem neuen learning_rate-Parameter können Sie die Schrittgröße bei jedem Durchlauf anpassen.

Weitere Informationen finden Sie unter Spracherkennungsmodelle vefeinern.

Chirp GA

Chirp ist allgemein verfügbar. Weitere Informationen finden Sie auf den folgenden Seiten:

17. Juli 2023

Imagen in allgemein verfügbaren Vertex AI-Features

Imagen in Vertex AI bietet die folgenden GA-Features:

* Funktion für eingeschränkten Zugriff

Weitere Informationen zu Imagen oder zum Zugriff auf eingeschränkte GA- oder Vorschau-Features finden Sie in der Übersicht zu Imagen in Vertex AI.

Generierung von Gesichtern wird unterstützt

Imagen unterstützt die Generierung menschlicher Gesichter für die folgenden Features:

* Funktion für eingeschränkten Zugriff

Die Generierung von Gesichtern ist standardmäßig aktiviert, mit Ausnahme von Bildern mit Kinder oder Prominenten. Weitere Informationen finden Sie in den Nutzungsrichtlinien.

Support in weiteren Sprachen

Die Vertex AI PaLM API unterstützt die folgenden Sprachen:

  • Spanisch (es)
  • Koreanisch (ko)
  • Hindi (hi)
  • Chinesisch (zh)

Eine vollständige Liste der unterstützten Sprachen finden Sie unter Unterstützte Sprachen.

13. Juli 2023

Batchunterstützung für PaLM 2 für Text

Unterstützung für Batch-Text (text-bison)-Anfragen ist in (GA) verfügbar. Sie können sich die Preise für das Modell chat-bison auf der Seite Vertex AI – Preise ansehen.

10. Juli 2023

PaLM 2 für Chat

Unterstützung für Google Chat (chat-bison) ist in (GA verfügbar. Sie können sich die Preise für das Modell chat-bison auf der Seite Vertex AI – Preise ansehen.

29. Juni 2023

Vertex AI Codey APIs

Vertex AI Codey APIs sind allgemein verfügbar (GA). Verwenden Sie die Vertex AI Codey APIs, um Lösungen mit Codegenerierung, Codevervollständigung und Codechat zu erstellen. Da die Vertex AI Codey APIs allgemein verfügbar sind, fallen Nutzungskosten an, wenn Sie sie verwenden. Weitere Informationen zu den Preisen finden Sie in der Preisübersicht für Generative AI auf Vertex AI.

Die Modelle in dieser Version umfassen:

  • code-bison (Codegenerierung)
  • codechat-bison (Codechat)
  • code-gecko (Codevervollständigung)

Die maximalen Tokens für die Eingabe wurden von 4.096 auf 6.144 Tokens für code-bison und codechat-bison erhöht, um längere Eingabeaufforderungen und das Chatprotokoll zu ermöglichen. Die maximalen Tokens für die Ausgabe wurden von 1.024 auf 2.048 für code-bison und codechat-bison erhöht, um längere Antworten zu ermöglichen.

Weitere Programmiersprachen werden unterstützt. Weitere Informationen finden Sie unter Unterstützte Programmiersprachen.

Mehrere Feinabstimmungs-Datasets wurden aus den Modellen code-bison und codechat-bison entfernt, um die folgenden Verbesserungen zu implementieren:

  • Übertriebenes Gerede.
  • Artefakte, z. B. NBSP-Zeichen (nicht kompatible Leerzeichen).
  • Code-Antworten von geringer Qualität.

Weitere Informationen zu Cloud-Horizontalen finden Sie unter Vertex AI-Zertifizierungen.

15. Juni 2023

PaLM 2 für Chat

Das Modell chat-bison wurde aktualisiert, um der Anleitung im Feld context besser zu folgen. Weitere Informationen zum Erstellen von Chat-Prompts für chat-bison finden Sie unter Chat-Prompts erstellen.

7. Juni 2023

PaLM Text und Embeddings APIs und Vertex AI Studio

Generative AI in Vertex AI ist jetzt in (GA) verfügbar. Mit diesem Feature können Sie die Vertex AI PaLM API verwenden, um KI-Modelle zu generieren, die Sie in Ihren KI-gestützten Anwendungen testen, optimieren und bereitstellen können. Da diese Features allgemein verfügbar sind, fallen Nutzungskosten an, wenn Sie die PaLM API text-bison und textembedding-gecko verwenden. Informationen zu Preisen finden Sie auf der Seite Vertex AI – Preise.

Zu den Features und Modellen in dieser Version gehören:

  • PaLM 2 für Text: text-bison
  • Einbettung für Text: textembedding-gecko
  • Vertex AI Studio für Sprache

Model Garden

Model Garden ist in (GA) verfügbar. Model Garden ist eine Plattform, mit der Sie Vertex AI ermitteln, testen, anpassen und bereitstellen sowie OSS-Modelle auswählen können. Diese Modelle reichen von einstellbar bis aufgabenspezifisch und sind alle auf der Seite „Model Garden“ in der Google Cloud Console verfügbar.

Informationen zum Einstieg finden Sie unter KI-Modelle und APIs in Model Garden entdecken.

Vertex AI Codey APIs

Die Vertex AI Codey APIs befinden sich in der (Vorschau). Mit den Codey APIs können APIs, Codegenerierung, Codevervollständigung und Codechats aus jedem Google Cloud-Projekt ohne Zulassungsliste verwendet werden. Auf die APIs kann über die Region us-central1 zugegriffen werden. Die Codey APIs können in Vertex AI Studio oder programmatisch in REST-Befehlen verwendet werden.

Informationen zum Einstieg finden Sie in der Übersicht: Codemodelle.

10. Mai 2023

Generative AI in Vertex AI

Generative AI in Vertex AI ist jetzt in der Vorschau verfügbar. Mit diesem Feature können Sie die Vertex AI PaLM API verwenden, um KI-Modelle zu generieren, die Sie in Ihren KI-gestützten Anwendungen testen, optimieren und bereitstellen können.

Zu den Features und Modellen in dieser Version gehören:

  • PaLM 2 für Text: text-bison
  • PaLM 2 für Chat: chat-bison
  • Einbettung für Text: textembedding-gecko
  • Vertex AI Studio für Sprache
  • Feinabstimmung für PaLM 2
  • Vertex AI SDK Version 1.25, das neue Features enthält, z. B. TextGenerationModel (text-bison), ChatModel (chat-bison), TextEmbeddingModel (textembedding-gecko@001)

Sie können mit den generativen KI-Features der generativen KI in Vertex AI interagieren, indem Sie Vertex AI Studio in der Google Cloud Console, die Vertex AI API und das Vertex AI SDK für Python verwenden.

Model Garden

Model Garden ist in der Vorschau verfügbar. Model Garden ist eine Plattform, mit der Sie Vertex AI ermitteln, testen, anpassen und bereitstellen sowie OSS-Modelle auswählen können. Diese Modelle reichen von einstellbar bis aufgabenspezifisch – alle auf der Seite „Model Garden“ in der Google Cloud Console verfügbar.