Sobre a pesquisa de vetor

O Memorystore para Redis é compatível com o armazenamento e a consulta de dados vetoriais. Nesta página, você verá informações sobre a pesquisa de vetor no Memorystore para Redis.

A pesquisa de vetores no Memorystore para Redis é compatível com o framework LLM de código aberto LangChain. O uso da pesquisa de vetor com o LangChain permite criar soluções para os seguintes casos de uso:

  • Geração Aumentada de Recuperação (RAG, na sigla em inglês)
  • Cache do LLM
  • Mecanismo de recomendação
  • Pesquisa semântica
  • Pesquisa por similaridade de imagens

A vantagem de usar o Memorystore para armazenar dados de IA generativa, em vez de outros bancos de dados do Google Cloud, é a velocidade do Memorystore. A pesquisa de vetor no Memorystore para Redis utiliza consultas com várias linhas de execução, resultando em uma alta capacidade de processamento de consultas (QPS) com baixa latência.

O Memorystore também oferece duas abordagens distintas para ajudar você a encontrar o equilíbrio ideal entre velocidade e acurácia. A opção HNSW (Hierarchical Navigable Small World) oferece resultados rápidos e aproximados, ideal para grandes conjuntos de dados em que uma correspondência próxima é suficiente. Se você precisar de precisão absoluta, a abordagem "FLAT" produzirá respostas exatas, embora o processamento possa demorar um pouco mais.

Se você quer otimizar seu aplicativo para ter as velocidades mais rápidas de leitura/gravação de dados vetoriais, o Memorystore para Redis é provavelmente a melhor opção para você.

Use a pesquisa de vetor para consultar dados armazenados na sua instância do Redis. Este recurso não está disponível no cluster do Memorystore para Redis.