Gemini 模型的标准回答

使用 Google 搜索建立依据

如果您希望将模型与世界知识、各种可能的主题或互联网上的最新信息联系起来,请使用 Google 搜索落地功能。

使用此功能时,您必须显示 Google 搜索入口点。如需详细了解相关要求,请参阅 Google 搜索入口点

如需详细了解 Vertex AI 中的模型连接,请参阅连接概览

支持的模型

以下模型支持连接功能:

  • Gemini 1.0 Pro

如果您将 Grounding 与 Google 搜索搭配使用,建议您使用 0.0 的温度。如需详细了解如何设置此配置,请参阅模型参考文档中的 Gemini API 请求正文

REST

在使用任何请求数据之前,请先进行以下替换:

  • LOCATION:处理请求的区域。
  • PROJECT_ID:您的项目 ID
  • MODEL_ID:多模态模型 ID。
  • MODEL:projects/acme/locations/us-central1/publishers/google/models/gemini-pro
  • ROLE:与内容关联的对话中的角色。即使在单轮应用场景中,也需要指定角色。可接受的值包括: USER:指定您发送的内容。
  • TOOLS:您要用来连接的资源。使用 googleSearchRetrieval 与 Google 搜索建立连接。
  • TEXT:要包含在提示中的文本说明。

HTTP 方法和网址:

POST http://LOCATION-prediction-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

请求 JSON 正文:

{
"contents": [{
  "role": "user",
  "parts": [{
    "text": TEXT
  }]
}],
"tools": [{
  "googleSearchRetrieval": {}
}],
"model": MODEL
}'

如需发送您的请求,请展开以下选项之一:

您应该收到类似以下内容的 JSON 响应:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "Chicago weather changes rapidly, so layers let you adjust easily. Consider a base layer, a warm mid-layer (sweater-fleece), and a weatherproof outer layer."
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "webSearchQueries": [
           "What's the weather in Chicago this weekend?"
         ],
         "searchEntryPoint": {
            "renderedContent": "....................."
         }
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

控制台

如需将“使用 Google 搜索建立依据”与 Vertex AI Studio 搭配使用,请按照以下步骤操作:

  1. 在 Google Cloud 控制台中,转到 Vertex AI Studio 页面。

    进入 Vertex AI Studio

  2. 点击多模态标签页。
  3. 点击打开以查看单提示设计页面。
  4. 在侧边栏中,点击高级以查看高级设置。
  5. 点击启用连接切换开关。
  6. 点击自定义,并将 Google 搜索设置为来源。
  7. 在文本框中输入提示,然后点击提交

您的提示回答现在会以 Google 搜索为基础。

Python

如需了解如何安装或更新 Python 版 Vertex AI SDK,请参阅安装 Python 版 Vertex AI SDK。如需了解详情,请参阅 Python API 参考文档

import vertexai
from vertexai.preview.generative_models import grounding
from vertexai.generative_models import GenerationConfig, GenerativeModel, Tool

# Initialize Vertex AI
vertexai.init(project=project_id, location=location)

# Load the model
model = GenerativeModel(model_name="gemini-1.0-pro-002")

# Use Google Search for grounding
tool = Tool.from_google_search_retrieval(grounding.GoogleSearchRetrieval())

prompt = "When is the next total solar eclipse in US?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

了解您的回答

如果您的模型提示从 Vertex AI Studio 或 API 成功连接到 Google 搜索,则回答会包含带有来源链接(网址)的元数据。但是,有多种原因可能会导致此元数据无法提供,并且提示回答不会落地。这些原因包括模型回答中的来源相关性低或信息不完整。

引用

强烈建议显示引用。可帮助用户验证发布方自身的回答,并为用户提供更多学习途径。

对来自 Google 搜索来源的回答的引用应以内嵌和汇总形式显示。请参阅下图,了解如何执行此操作。

引用示例

使用替代搜索引擎选项

客户使用 Google 搜索落地功能不会阻止客户提供备用搜索引擎选项、将备用搜索选项设为客户应用的默认选项,或者在客户应用中显示自己的或第三方搜索建议或搜索结果,前提是任何此类非 Google 搜索服务或相关结果与依据结果和搜索入口点分开显示,且不能合理地归因于 Google 提供的结果或与 Google 提供的结果混淆。

将 Gemini 用于您的数据

本部分介绍如何使用 Vertex AI API 将 Gemini 1.0 Pro 文本回答连接到 Vertex AI Search 数据存储区。

以下模型支持连接功能:

  • Gemini 1.0 Pro

需要满足一些前提条件才能连接 Gemini 1.0 Pro。

  1. 启用 Vertex AI Search 并激活此 API。
  2. 创建 Vertex AI Search 数据源和应用。
  3. 在 Vertex AI Search 中将您的数据存储区与应用相关联。数据源用作在 Vertex AI 中连接 Gemini 1.0 Pro 的基础。
  4. 为您的数据存储区启用企业版。

如需了解详情,请参阅 Vertex AI Search 简介

启用 Vertex AI Search

  1. 在 Google Cloud 控制台中,进入 Search & Conversation 页面。

    Search & Conversation

  2. 阅读并同意服务条款,然后点击继续并激活 API

Vertex AI Search 在 global 位置或 euus 多区域提供。如需了解详情,请参阅 Vertex AI Search 位置

在 Vertex AI Search 中创建数据存储区

如需将模型连接到源数据,您需要准备好数据并将其保存到 Vertex AI Search。为此,您需要在 Vertex AI Search 中创建数据存储区

如果您从头开始,则需要准备数据以注入到 Vertex AI Search 中。如需开始操作,请参阅准备数据以进行注入。注入过程可能需要几分钟到几小时才能完成,具体取决于数据的大小。只有非结构化数据存储区支持连接功能。

准备好要注入的数据后,您可以创建搜索数据存储区。成功创建数据存储区后,创建搜索应用以关联到该存储区并启用企业版

连接 Gemini 1.0 Pro 模型

如果您不知道数据存储区 ID,请按以下步骤操作:

  1. 在 Google Cloud 控制台中,转到 Vertex AI Search 页面,然后在导航菜单中点击数据存储区。 <a{: class="button button-primary" l10n-attrs-original-order="href,target,class,track-name,track-type" l10n-encrypted-href="BU2UnTd/bvXw0I31NoHStFtigmNHgUGOXn/QVSGplOhB4J1rwNxdLslXsSNCBkPOFvWIDj0tv6yobddHSWXSow==" target="console" track-name="consoleLink" track-type="tasks" }="">转到“数据存储区”页面</a{:>
  2. 点击您的数据存储区的名称。
  3. 在数据存储区的数据页面上,获取数据存储区 ID。

REST

如需使用 Vertex AI API 测试文本提示,请向发布方模型端点发送 POST 请求。

PROJECT_ID=PROJECT_ID
curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json"  http://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/gemini-1.0-pro:generateContent -d '{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": TEXT
    }]
  }],
  "model": "projects/PROJECT_ID/locations/us-central1/publishers/google/models/gemini-1.0-pro",
  "tools": [{
    "retrieval": {
      "vertexAiSearch": {
        "datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID
      }
    }
  }]
}

Python

如需了解如何安装或更新 Python 版 Vertex AI SDK,请参阅安装 Python 版 Vertex AI SDK。如需了解详情,请参阅 Python API 参考文档

import vertexai

from vertexai.preview.generative_models import grounding
from vertexai.generative_models import GenerationConfig, GenerativeModel, Tool

# Initialize Vertex AI
vertexai.init(project=project_id, location=location)

# Load the model
model = GenerativeModel(model_name="gemini-1.0-pro-002")

# Use Vertex AI Search data store
# Format: projects/{project_id}/locations/{location}/collections/default_collection/dataStores/{data_store_id}
tool = Tool.from_retrieval(
    grounding.Retrieval(grounding.VertexAISearch(datastore=data_store_path))
)

prompt = "How do I make an appointment to renew my driver's license?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

控制台

如需在 Google Cloud 控制台中使用 Vertex AI Studio 将模型输出连接到 Vertex AI Search,请按以下步骤操作:

  1. 在 Google Cloud 控制台中,转到 Vertex AI Studio 页面。

    进入 Vertex AI Studio

  2. 点击语言标签页。
  3. 点击文本提示以查看单个提示设计页面。
  4. 在侧边栏中,点击高级以查看高级设置。
  5. 点击启用连接功能切换开关以启用连接功能。
  6. 点击自定义,并将 Vertex AI Search 设置为来源。该路径应采用以下格式:projects/project_id/locations/global/collections/default_collection/dataStores/data_store_id
  7. 在文本框中输入提示,然后点击提交

您的提示回答现在基于 Vertex AI Search。

后续步骤