Découvrez les LLM, les modèles Gemini, les modèles PaLM et Vertex AI

Les grands modèles de langage (LLM) sont des modèles de deep learning entraînés sur d'énormes quantités de données textuelles. Les LLM peuvent traduire un langage, synthétiser du texte, reconnaître des objets et du texte dans des images, et compléter les moteurs de recherche et les systèmes de recommandation. Google fournit les modèles suivants :

  • Gemini est une famille de modèles d'IA générative conçus pour les cas d'utilisation multimodaux. Il est capable de traiter des informations provenant de plusieurs modalités, y compris des images, des vidéos et du texte.

  • PaLM 2 s'appuie sur l'héritage de Google en matière de recherche en machine learning et en IA responsable.

    Les modèles PaLM 2 offrent d'excellents résultats pour les tâches de raisonnement avancée, la classification, la réponse à des questions, la traduction et la génération de langage naturel. Sa grande taille lui permet d'apprendre des schémas et des relations complexes dans le langage, afin de générer du texte de haute qualité pour diverses applications.

Pour obtenir plus de ressources d'apprentissage, parcourez le dépôt GitHub Generative AI. Les data scientists, les développeurs et les Developers Advocates de Google gèrent ce contenu.

Premiers pas

Voici quelques notebooks, tutoriels et autres exemples pour vous aider à démarrer. Vertex AI propose des tutoriels sur la console Google Cloud et des tutoriels sur notebook Jupyter qui utilisent le SDK Vertex AI pour Python. Vous pouvez ouvrir un tutoriel sur Colab dans Colab ou télécharger le notebook dans l'environnement de votre choix.

Premiers pas avec Gemini

Premiers pas avec Gemini

Le modèle Gemini est un modèle de langage multimodal révolutionnaire développé par Google AI, capable d'extraire des insights pertinents à partir de divers formats de données, y compris des images et des vidéos. Ce notebook explore différents cas d'utilisation avec des invites multimodales.

Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter.
Exécuter dans Colab | Afficher sur GitHub

Premiers pas avec l'API Vertex AI PaLM et le SDK Vertex AI pour Python

Premiers pas avec Vertex AI et PaLM

Découvrez comment utiliser l'API PaLM avec le SDK Vertex AI pour Python. Après avoir suivi le notebook, vous devriez comprendre différentes nuances des paramètres de modèle génératif, tels que temperature, top_k, top_p, et l'impact de chaque paramètre sur les résultats de sortie.

Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter.
Exécuter dans Colab | Afficher sur GitHub

Premiers pas avec Vertex AI Vertex AI Studio

Logo GenAI Studio

Utilisez Vertex AI Studio via la console Google Cloud sans avoir besoin de l'API ni du SDK Vertex AI pour Python.

Afficher sur GitHub

Bonnes pratiques pour la conception d'invites

Logo du jardin de modèles

Découvrez comment concevoir des invites pour améliorer la qualité des réponses obtenues du modèle. Ce tutoriel aborde les principes de base de la conception d'invites et présente également quelques bonnes pratiques.

Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter.
Exécuter dans Colab | Afficher sur GitHub

LangChain 🦜️🔗

LangChain est un framework permettant de développer des applications basées sur des LLM comme les modèles PaLM. Utilisez LangChain pour importer des données externes telles que vos fichiers, d'autres applications ou des données d'API, dans vos LLM.

Pour en savoir plus sur LangChain et son fonctionnement avec Vertex AI, consultez la documentation officielle de LangChain et Vertex AI.

LangChain et API Vertex AI PaLM

Utiliser LangageChain

Ce tutoriel présente les composants de LangChain et certains cas d'utilisation courants impliquant LangChain et l'API Vertex AI PaLM. Voici quelques exemples et démonstrations inclus dans ce tutoriel :

  • Fonctionnement de LangChain et de l'API Vertex AI PaLM
  • Comment résumer des textes volumineux
  • Comment créer un modèle de questions-réponses basé sur la récupération à partir de fichiers PDF
  • Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter.
    Exécuter dans Colab | Afficher sur GitHub

    Synthèse de texte à partir de documents volumineux avec LangChain

    Synthèse de documents volumineux avec LangChain

    La synthèse de texte est une tâche de traitement du langage naturel (NLP) qui crée un résumé concis et informatif d'un texte plus long. Vous pouvez utiliser des LLM pour créer des résumés d'articles de presse, d'articles de recherche, de documents techniques et d'autres types de texte.

    Dans ce notebook, vous utilisez LangChain pour appliquer les stratégies de synthèse. Le notebook présente plusieurs exemples de synthèse de documents volumineux.

    Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter.
    Exécuter dans Colab | Afficher sur GitHub

    Répondre à des questions à partir de documents volumineux avec LangChain

    Réponse à des questions avec des documents volumineux en utilisant LangChain

    Ce notebook utilise LangChain avec l'API Vertex AI PaLM pour créer un système de questions-réponses qui extrait des informations de documents volumineux.

    Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter.
    Exécuter dans Colab | Afficher sur GitHub

    Répondre à des questions à partir de documents avec LangChain et Vector Search

    Synthèse de documents volumineux avec LangChain

    Ce notebook explique comment mettre en œuvre un système de questions-réponses qui améliore une réponse de LLM. Vous apprendrez à améliorer les connaissances avec des sources de données externes telles que des documents et des sites Web. Ce notebook utilise Vector Search, LangChain et l'API Vertex AI PaLM pour la création de texte et de représentations vectorielles continues.

    Notebook Jupyter : vous pouvez exécuter ce tutoriel sous forme de notebook Jupyter.
    Exécuter dans Colab | Afficher sur GitHub

    Étapes suivantes