ícono de IA

Modelos grandes de lenguaje (LLM)

Modelos grandes de lenguaje con la tecnología de IA de primer nivel de Google

Google Cloud incorpora innovaciones desarrolladas y probadas por Google DeepMind en nuestra plataforma de IA preparada para empresas, de modo que los clientes puedan comenzar a utilizarlas para compilar y entregar capacidades de IA generativa hoy mismo, no en el futuro. 

Los clientes nuevos obtienen $300 en créditos gratuitos que pueden usar en Vertex AI. 

Descripción general

¿Qué es un modelo grande de lenguaje (LLM)?

Un modelo de lenguaje extenso (LLM) es un modelo estadístico de lenguaje, entrenado con una gran cantidad de datos, que se puede usar para generar y traducir texto y otros contenidos, así como realizar otras tareas de procesamiento de lenguaje natural (PLN). 

Por lo general, los LLM se basan en arquitecturas de aprendizaje profundo, como Transformer, desarrollado por Google en 2017, y se pueden entrenar con miles de millones de textos y otros tipos de contenido.

¿Cuáles son algunos ejemplos de modelos de base populares?

Vertex AI ofrece acceso a Gemini, un modelo multimodal de DeepMind de Google. Gemini es capaz de comprender de forma virtual prácticamente cualquier entrada, combinar diferentes tipos de información y generar casi cualquier resultado. Envía instrucciones a Vertex AI con Gemini y haz pruebas en ella usando texto, imágenes, video o código. Con el razonamiento avanzado y las capacidades de generación de vanguardia de Gemini, los desarrolladores pueden probar instrucciones de muestra para extraer texto de imágenes, convertir texto de imágenes a JSON y hasta generar respuestas sobre las imágenes subidas para compilar aplicaciones de IA de nueva generación.

¿Cuáles son los casos de uso de los modelos grandes de lenguaje?

Los LLM basados en texto se usan para varias tareas de procesamiento de lenguaje natural, incluidas la generación de texto, la traducción automática, el resumen de textos, la respuesta de preguntas y la creación de chatbots que puedan mantener conversaciones con personas.

Los LLM también se pueden entrenar con otros tipos de datos, como código, imágenes, audio y video, entre otros. Codey, Imagen y Chirp de Google son ejemplos de modelos que generarán nuevas aplicaciones y ayudarán a crear soluciones para los problemas más desafiantes del mundo.

¿Cuáles son los beneficios de los modelos grandes de lenguaje?

Los LLM están previamente entrenados con una gran cantidad de datos. Son extremadamente flexibles porque se los puede entrenar para realizar diversas tareas, como la generación de texto, el resumen y la traducción. También son escalables porque se pueden ajustar a tareas específicas, lo que puede mejorar su rendimiento.

¿Qué servicios de modelos grandes de lenguaje ofrece Google Cloud?

IA generativa de Vertex AI: Te brinda acceso a los grandes modelos de IA generativa de Google para que puedas probarlos, ajustarlos e implementarlos para su uso en tus aplicaciones con tecnología de IA.

Vertex AI Agent Builder: Aplicaciones de búsqueda empresarial y de chatbots con flujos de trabajo compilados previamente para tareas comunes, como la integración, la transferencia de datos y la personalización.

Contact Center AI (CCAI) : Solución de centro de contacto inteligente que incluye Dialogflow, nuestra plataforma de IA conversacional con capacidades basadas en intents y de LLM.

Cómo funciona

Los LLM usan una gran cantidad de datos de texto para entrenar una red neuronal. Luego, esta red neuronal se utiliza para generar texto, traducirlo o realizar otras tareas. Cuantos más datos se usen para entrenar la red neuronal, mejor y más precisa será en la tarea de realizarla.

Google Cloud desarrolló productos basados en sus tecnologías de LLM, que satisfacen una amplia variedad de casos de uso que puedes explorar en la sección Usos comunes que aparece a continuación.

Ingeniero de instrucciones
Sugerencias para convertirse en un ingeniero de instrucciones de primer nivel

Usos comunes

Crea un chatbot

Compila un chatbot con tecnología de LLM

Vertex AI Agents facilita la creación de chatbots similares a los humanos y con sonido natural. El agente de IA generativa es una función de Vertex AI Agents, que se basa en la funcionalidad de Dialogflow CX.

Con esta función, puedes proporcionar una URL de sitio web o cualquier cantidad de documentos para que el Agente de IA generativa analice tu contenido y cree un agente virtual potenciado por almacenes de datos y LLM. 

Guía para crear un chatbot con Vertex AI Agents

Compila un chatbot con tecnología de LLM

Vertex AI Agents facilita la creación de chatbots similares a los humanos y con sonido natural. El agente de IA generativa es una función de Vertex AI Agents, que se basa en la funcionalidad de Dialogflow CX.

Con esta función, puedes proporcionar una URL de sitio web o cualquier cantidad de documentos para que el Agente de IA generativa analice tu contenido y cree un agente virtual potenciado por almacenes de datos y LLM. 

Guía para crear un chatbot con Vertex AI Agents

Investigación y descubrimiento de la información

Encuentra y resume información compleja en momentos

Extrae y resume información valiosa de documentos complejos, como formularios 10-K, informes de investigación, servicios de noticias de terceros y, también, informes financieros, con un solo clic. Mira cómo Enterprise Search usa el lenguaje natural para comprender las consultas semánticas, ofrecer respuestas resumidas y hacer preguntas de seguimiento en la demostración de la derecha.

Guía para comenzar a usar Vertex AI Search
Cómo la IA generativa puede ayudarte a encontrar y resumir información compleja

Encuentra y resume información compleja en momentos

Extrae y resume información valiosa de documentos complejos, como formularios 10-K, informes de investigación, servicios de noticias de terceros y, también, informes financieros, con un solo clic. Mira cómo Enterprise Search usa el lenguaje natural para comprender las consultas semánticas, ofrecer respuestas resumidas y hacer preguntas de seguimiento en la demostración de la derecha.

Guía para comenzar a usar Vertex AI Search
Cómo la IA generativa puede ayudarte a encontrar y resumir información compleja

Arquitectura de solución de investigación y descubrimiento de información

La solución usa Vertex AI Agent Builder como componente principal. Con Vertex AI Agent Builder, incluso los desarrolladores novatos pueden compilar e implementar rápidamente chatbots y aplicaciones de búsqueda en minutos.

Ver la arquitectura de referencia de muestra
arquitectura de referencia de IA generativa de investigación y descubrimiento

Resumen de documentos

Procesa y resume documentos grandes con LLM de Vertex AI

Con Generative AI Document Summarization, implementa una solución de un solo clic que ayuda a detectar texto en archivos sin procesar y automatizar los resúmenes de documentos. La solución establece una canalización que usareconocimiento óptico de caracteres (OCR) de Cloud Vision para extraer texto de documentos PDF subidos en Cloud Storage, crea un resumen a partir del texto extraído con Vertex AI y almacena el resumen que se puede buscar en una base de datos de BigQuery.

Implementar en la consola
Diagrama de referencia de DOC AI

Procesa y resume documentos grandes con LLM de Vertex AI

Con Generative AI Document Summarization, implementa una solución de un solo clic que ayuda a detectar texto en archivos sin procesar y automatizar los resúmenes de documentos. La solución establece una canalización que usareconocimiento óptico de caracteres (OCR) de Cloud Vision para extraer texto de documentos PDF subidos en Cloud Storage, crea un resumen a partir del texto extraído con Vertex AI y almacena el resumen que se puede buscar en una base de datos de BigQuery.

Implementar en la consola
Diagrama de referencia de DOC AI

Crea un centro de contacto impulsado por IA

Crea un centro de contacto impulsado por IA con CCAI

Con las tecnologías de IA, como el procesamiento de lenguaje natural, el aprendizaje automático y el reconocimiento de voz y texto, Contact Center AI Platform ofrece una solución de centro de contacto como servicio (CCaaS) que ayuda a crear un centro de contacto desde cero. También tiene herramientas individuales que se enfocan en aspectos específicos de un centro de contacto, por ejemplo: Dialogflow CX para crear un chatbot,Agent Assist para obtener asistencia en tiempo real para agentes humanos y CCAI Insights para identificar las opiniones y los impulsores de las llamadas.

Más información sobre las funciones de LLM en Dialogflow CX
Mejora la atención al cliente con CCAI

Crea un centro de contacto impulsado por IA con CCAI

Con las tecnologías de IA, como el procesamiento de lenguaje natural, el aprendizaje automático y el reconocimiento de voz y texto, Contact Center AI Platform ofrece una solución de centro de contacto como servicio (CCaaS) que ayuda a crear un centro de contacto desde cero. También tiene herramientas individuales que se enfocan en aspectos específicos de un centro de contacto, por ejemplo: Dialogflow CX para crear un chatbot,Agent Assist para obtener asistencia en tiempo real para agentes humanos y CCAI Insights para identificar las opiniones y los impulsores de las llamadas.

Más información sobre las funciones de LLM en Dialogflow CX
Mejora la atención al cliente con CCAI

Entrena LLM personalizados

Usa TPU (unidades de procesamiento tensorial) para entrenar LLM a gran escala

Las Cloud TPU son las supercomputadoras a escala de almacén de Google para el aprendizaje automático. Están optimizadas para ofrecer rendimiento y escalabilidad, a la vez que minimizan el costo total de propiedad y son ideales para entrenar LLM y modelos de IA generativa.

Con los tiempos de entrenamiento más rápidos en cinco comparativas de MLPerf 2.0, los pods de Cloud TPU v4 son la generación más reciente de aceleradores, que forman el centro de AA disponible de forma pública más grande del mundo, con hasta 9 exaflops de rendimiento máximo agregado.

Hablar con un especialista sobre el uso de Cloud TPU
Gráfico de barras que muestra el rendimiento total del procesamiento, en el que Google ocupa el primer puesto

Usa TPU (unidades de procesamiento tensorial) para entrenar LLM a gran escala

Las Cloud TPU son las supercomputadoras a escala de almacén de Google para el aprendizaje automático. Están optimizadas para ofrecer rendimiento y escalabilidad, a la vez que minimizan el costo total de propiedad y son ideales para entrenar LLM y modelos de IA generativa.

Con los tiempos de entrenamiento más rápidos en cinco comparativas de MLPerf 2.0, los pods de Cloud TPU v4 son la generación más reciente de aceleradores, que forman el centro de AA disponible de forma pública más grande del mundo, con hasta 9 exaflops de rendimiento máximo agregado.

Hablar con un especialista sobre el uso de Cloud TPU
Gráfico de barras que muestra el rendimiento total del procesamiento, en el que Google ocupa el primer puesto

Da el siguiente paso con Google Cloud

Los clientes nuevos obtienen $300 en créditos gratuitos

Habla con un especialista sobre tus necesidades

Más información sobre la IA generativa en Google Cloud

Habilitar la API de Vertex AI

¿Buscas más soluciones de IA de Google Cloud?

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Consola
Google Cloud