I modelli linguistici di grandi dimensioni (LLM) sono modelli di deep learning addestrati su enormi quantità di dati di testo. Gli LLM possono tradurre il linguaggio, riassumere testi, riconoscere oggetti e testo nelle immagini e integrare i motori di ricerca e i sistemi di suggerimenti.
Google offre la famiglia di modelli di AI generativa Gemini progettati per casi d'uso multimodali in grado di elaborare le informazioni da diverse modalità, tra cui immagini, video e testo.
Per visualizzare altre risorse di apprendimento, sfoglia il repository GitHub di IA generativa. I data scientist, gli sviluppatori e i sostenitori degli sviluppatori di Google gestiscono questi contenuti.
Inizia
Ecco alcuni blocchi note, tutorial e altri esempi per iniziare. Vertex Generative AI offre tutorial sulla console Google Cloud e tutorial sui blocchi note Jupyter che utilizzano l'SDK Vertex AI per Python. Puoi aprire un tutorial sul blocco note in Colab o scaricare il blocco note nell'ambiente che preferisci.
Inizia a utilizzare Gemini
Gemini è un innovativo modello linguistico multimodale sviluppato dall'IA di Google, in grado di estrarre insight significativi da un'ampia gamma di formati di dati, tra cui immagini e video. Questo blocco note esplora vari casi d'uso con prompt multimodali.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Inizia a utilizzare Vertex AI Vertex AI Studio
Utilizza Vertex AI Studio tramite la console Google Cloud senza bisogno dell'API o dell'SDK Vertex AI per Python. |
Best practice per la progettazione dei prompt
Scopri come progettare i prompt per migliorare la qualità delle risposte del modello. Questo tutorial tratta gli elementi essenziali del prompt engineering, incluse alcune best practice.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
LangChain 🦜️🔗
LangChain è un framework per lo sviluppo di applicazioni basate su LLM come i modelli PaLM. Utilizza LangChain per importare dati esterni, come file, altre applicazioni e dati API, nei tuoi LLM.
Per saperne di più su LangChain e sul suo funzionamento con Vertex Generative AI, consulta la documentazione ufficiale di LangChain e Vertex Generative AI.
RAG (Multimodal Retrieval Augmented Generation) con Gemini, Vector Search e LangChain
La generazione aumentata di recupero (RAG) è diventata un paradigma diffuso per consentire agli LLM di accedere a dati esterni, nonché come meccanismo di grounding per mitigare le allucinazioni. Scopri come eseguire RAG multimodali in cui eseguirai domande e risposte su un documento finanziario pieno di testo e immagini.
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Migliora la generazione di domande e risposte utilizzando LangChain 🦜️🔗 e la ricerca vettoriale di BigQuery
Scopri come implementare un sistema di question answering (QA) per migliorare la risposta di un modello LLM aumentando le conoscenze dell'LLM con origini dati esterne come i documenti. Questo esempio utilizza Vertex AI Gemini 1.0 Pro per testo, rappresentazioni distribuite per l'API Text, BigQuery Vector Search e LangChain
Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter. |
Passaggi successivi
- Esplora altre risorse nel repository GitHub di IA generativa.
- Guarda altri tutorial sui blocchi note di Vertex Generative AI nella panoramica dei tutorial.