Scopri di più su LLM, modelli Gemini e Vertex Generative AI

I modelli linguistici di grandi dimensioni (LLM) sono modelli di deep learning addestrati su enormi quantità di dati di testo. Gli LLM possono tradurre il linguaggio, riassumere testi, riconoscere oggetti e testo nelle immagini e integrare i motori di ricerca e i sistemi di suggerimenti.

Google offre la famiglia di modelli di AI generativa Gemini progettati per casi d'uso multimodali in grado di elaborare le informazioni da diverse modalità, tra cui immagini, video e testo.

Per visualizzare altre risorse di apprendimento, sfoglia il repository GitHub di IA generativa. I data scientist, gli sviluppatori e i sostenitori degli sviluppatori di Google gestiscono questi contenuti.

Inizia

Ecco alcuni blocchi note, tutorial e altri esempi per iniziare. Vertex Generative AI offre tutorial sulla console Google Cloud e tutorial sui blocchi note Jupyter che utilizzano l'SDK Vertex AI per Python. Puoi aprire un tutorial sul blocco note in Colab o scaricare il blocco note nell'ambiente che preferisci.

Inizia a utilizzare Gemini

Inizia a utilizzare Gemini

Gemini è un innovativo modello linguistico multimodale sviluppato dall'IA di Google, in grado di estrarre insight significativi da un'ampia gamma di formati di dati, tra cui immagini e video. Questo blocco note esplora vari casi d'uso con prompt multimodali.

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

Inizia a utilizzare Vertex AI Vertex AI Studio

Logo GenAI Studio

Utilizza Vertex AI Studio tramite la console Google Cloud senza bisogno dell'API o dell'SDK Vertex AI per Python.

Visualizza su GitHub

Best practice per la progettazione dei prompt

Logo Model Garden

Scopri come progettare i prompt per migliorare la qualità delle risposte del modello. Questo tutorial tratta gli elementi essenziali del prompt engineering, incluse alcune best practice.

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

LangChain 🦜️🔗

LangChain è un framework per lo sviluppo di applicazioni basate su LLM come i modelli PaLM. Utilizza LangChain per importare dati esterni, come file, altre applicazioni e dati API, nei tuoi LLM.

Per saperne di più su LangChain e sul suo funzionamento con Vertex Generative AI, consulta la documentazione ufficiale di LangChain e Vertex Generative AI.

RAG (Multimodal Retrieval Augmented Generation) con Gemini, Vector Search e LangChain

RAG (Multimodal Retrieval Augmented Generation) con Gemini, Vector Search e LangChain

La generazione aumentata di recupero (RAG) è diventata un paradigma diffuso per consentire agli LLM di accedere a dati esterni, nonché come meccanismo di grounding per mitigare le allucinazioni.

Scopri come eseguire RAG multimodali in cui eseguirai domande e risposte su un documento finanziario pieno di testo e immagini.

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

Migliora la generazione di domande e risposte utilizzando LangChain 🦜️🔗 e la ricerca vettoriale di BigQuery

Migliora la generazione di domande e risposte utilizzando LangChain 🦜️🔗 e la ricerca vettoriale di BigQuery

Scopri come implementare un sistema di question answering (QA) per migliorare la risposta di un modello LLM aumentando le conoscenze dell'LLM con origini dati esterne come i documenti. Questo esempio utilizza Vertex AI Gemini 1.0 Pro per testo, rappresentazioni distribuite per l'API Text, BigQuery Vector Search e LangChain

Blocco note Jupyter: puoi eseguire questo tutorial come blocco note Jupyter.
Esegui in Colab | Visualizza su GitHub

Passaggi successivi