지도 조정을 사용하여 Gemini Pro 모델 조정

이 문서에서는 지도 조정을 사용하여 Gemini 모델을 조정하는 방법을 설명합니다.

시작하기 전에

조정 작업 만들기

Google Cloud 콘솔, API 또는 Python용 Vertex AI SDK를 사용하여 지도 텍스트 모델 미세 조정 작업을 만들 수 있습니다. 모델 조정 구성에 대한 안내는 권장 구성을 참조하세요.

REST

모델 조정 작업을 만들려면 tuningJobs.create 메서드를 사용하여 POST 요청을 전송합니다. 일부 매개변수는 모든 모델에서 지원되지 않습니다. 조정하려는 모델에 적용 가능한 매개변수만 포함해야 합니다.

요청 데이터를 사용하기 전에 다음을 바꿉니다.

  • BASE_MODEL: 조정할 기반 모델의 이름입니다. 옵션은 gemini-1.0-pro-002입니다.
  • TRAINING_DATASET_URI: 학습 데이터 세트 파일의 Cloud Storage URI입니다.
  • VALIDATION_DATASET_URI(선택사항): 검증 데이터 세트 파일의 Cloud Storage URI입니다.
  • EPOCH_COUNT(선택사항): 학습시킬 세대 수입니다. 권장 값을 사용하려면 설정하지 않은 상태로 둡니다.
  • LEARNING_RATE_MULTIPLIER(선택사항): 권장 학습률에 적용할 배수입니다. 권장 값을 사용하려면 설정하지 않은 상태로 둡니다.
  • TUNED_MODEL_DISPLAYNAME(선택사항): 조정된 모델의 표시 이름입니다. 설정하지 않으면 무작위 이름이 생성됩니다.

HTTP 메서드 및 URL:

POST http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs

JSON 요청 본문:

{
  "baseModel": "BASE_MODEL",
  "supervisedTuningSpec" : {
      "training_dataset_uri": "TRAINING_DATASET_URI",
      "validation_dataset_uri": "VALIDATION_DATASET_URI",
      "hyper_parameters": {
          "epoch_count": EPOCH_COUNT,
          "learning_rate_multiplier": LEARNING_RATE_MULTIPLIER
      },
  },
  "tunedModelDisplayName": "TUNED_MODEL_DISPLAYNAME,
}

요청을 보내려면 다음 옵션 중 하나를 선택합니다.

curl

요청 본문을 request.json 파일에 저장하고 다음 명령어를 실행합니다.

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"

PowerShell

요청 본문을 request.json 파일에 저장하고 다음 명령어를 실행합니다.

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand Content

다음과 비슷한 JSON 응답이 수신됩니다.

Python

  import time
  from vertexai.preview import tuning
  from vertexai.preview.tuning import sft

  sft_tuning_job = sft.train(
      source_model="gemini-1.0-pro-002",
      train_dataset="gs://cloud-samples-data/ai-platform/generative_ai/sft_train_data.jsonl"
  )
  # Polling for job completion
  while not sft_tuning_job.has_ended:
      time.sleep(60)
      sft_tuning_job.refresh()

  print(sft_tuning_job.tuned_model_name)
  print(sft_tuning_job.tuned_model_endpoint_name)
  print(sft_tuning_job.experiment)

콘솔

Google Cloud 콘솔을 사용하여 지도 조정으로 텍스트 모델을 조정하려면 다음 단계를 수행합니다.

  1. Google Cloud 콘솔의 Vertex AI 섹션에서 Vertex AI Studio 페이지로 이동합니다.

    Vertex AI Studio로 이동

  2. 조정 및 정제 탭을 클릭합니다.

  3. 조정된 모델 만들기를 클릭합니다.

  4. 조정 방법에서 지도 조정 라디오 버튼을 선택합니다.

  5. 모델 세부정보에서 다음을 구성합니다.

    1. 조정된 모델 이름 필드에 새로 조정된 모델의 이름을 최대 128자(영문 기준)로 입력합니다.
    2. 기본 모델 필드에서 gemini-1.0-pro-002를 선택합니다.
    3. 리전 드롭다운 필드에서 파이프라인 조정 작업이 실행되는 리전과 조정된 모델이 배포되는 리전을 선택합니다.
  6. 선택사항: 고급 옵션 드롭다운 화살표를 확장하고 다음을 구성합니다.

    1. 세대 수 필드에 모델 조정을 위해 실행할 단계 수를 입력합니다.
    2. 학습률 배수 필드에 각 반복의 보폭을 입력합니다. 기본값은 1입니다.
  7. 계속을 클릭합니다.

    조정 데이터 세트 페이지가 열립니다.

  8. 데이터 세트 파일을 업로드하려면 다음 중 하나를 선택합니다.

    1. 아직 데이터 세트를 업로드하지 않았으면 Cloud Storage에 파일 업로드 라디오 버튼을 선택합니다.
    2. JSONL 파일 선택 필드에서 찾아보기를 클릭하고 데이터 세트 파일을 선택합니다.
    3. 데이터 세트 위치에서 찾아보기를 클릭하고 데이터 세트 파일을 저장할 Cloud Storage 버킷을 선택합니다.
    4. 데이터 세트 파일이 Cloud Storage 버킷에 이미 있으면 Cloud Storage의 기존 파일 라디오 버튼을 선택합니다.
    5. Cloud Storage 파일 경로 필드에서 찾아보기를 클릭한 후 데이터 세트 파일이 있는 Cloud Storage 버킷을 선택합니다.
  9. (선택사항) 학습 중에 검증 측정항목을 가져오려면 모델 검증 사용 설정 전환 버튼을 클릭합니다.

    1. 검증 데이터 세트 파일에서 검증 데이터 세트의 Cloud Storage 경로를 입력합니다.
  10. 조정 시작을 클릭합니다.

    새 모델이 조정 및 정제 페이지Gemini Pro 조정 모델 섹션에 표시됩니다. 모델 조정이 완료되면 상태성공이라고 표시됩니다.

curl 명령어 예시

PROJECT_ID=myproject
LOCATION=us-central1

curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
"http://${LOCATION}-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/${LOCATION}/tuningJobs" \
-d \
$'{
    "baseModel": "gemini-1.0-pro-002",
    "supervisedTuningSpec" : {
        "training_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/sft_train_data.jsonl",
        "validation_dataset_uri": "gs://cloud-samples-data/ai-platform/generative_ai/sft_validation_data.jsonl"
    },
    "tunedModelDisplayName": "tuned_gemini_pro"
}'

다음 표에는 태스크별로 기반 모델을 조정하기 위한 권장 구성이 나와 있습니다.

태스크 데이터 세트에 있는 예의 개수 세대 수
분류 500+ 2-4
요약 1000+ 2-4
추출 QA 500+ 2-4
채팅 1000+ 2-4

세대 수의 경우 특정 데이터 세트에서 최고의 성능을 얻기 위해 두 개 이상의 값을 시도하는 것이 좋습니다. 세대 수를 늘리면 더 나은 결과를 얻을 수 있습니다. 하지만 특히 데이터 세트가 작으면 과적합에 주의해야 하고 과적합이 발생하면 세대 수를 낮춰야 합니다.

분류 태스크의 경우 클래스 수에 따라 태스크의 복잡성이 증가합니다. 클래스 수가 많으면 더 큰 데이터 세트가 필요할 수 있습니다.

조정 작업 목록 보기

Google Cloud 콘솔 또는 Python용 Vertex AI SDK를 사용하거나 tuningJobs 메서드를 사용하여 GET 요청을 전송하여 현재 프로젝트의 조정 작업 목록을 볼 수 있습니다.

REST

모델 조정 작업 목록을 보려면 tuningJobs.list 메서드를 사용하여 GET 요청을 전송합니다.

요청 데이터를 사용하기 전에 다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • TUNING_JOB_REGION: 조정 작업이 실행되는 리전입니다. 또한 조정된 모델이 업로드되는 기본 리전입니다.

HTTP 메서드 및 URL:

GET http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs

요청을 보내려면 다음 옵션 중 하나를 선택합니다.

curl

다음 명령어를 실행합니다.

curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs"

PowerShell

다음 명령어를 실행합니다.

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs" | Select-Object -Expand Content

다음과 비슷한 JSON 응답이 수신됩니다.

Python

from vertexai.preview import tuning
from vertexai.preview.tuning import sft
sft.SupervisedTuningJob.list()

콘솔

Google Cloud 콘솔에서 조정 작업을 보려면 Vertex AI Studio 페이지로 이동합니다.

Vertex AI Studio로 이동

Gemini 조정 작업은 Gemini Pro 조정된 모델 섹션 아래 표에 나와 있습니다.

조정 작업의 세부정보 가져오기

Google Cloud 콘솔 또는 Python용 Vertex AI SDK를 사용하거나 tuningJobs 메서드를 사용하여 GET 요청을 전송하여 현재 프로젝트에서 조정 작업의 세부정보를 가져올 수 있습니다.

REST

모델 조정 작업 목록을 보려면 tuningJobs.get 메서드를 사용하여 GET 요청을 전송하고 TuningJob_ID를 지정합니다.

요청 데이터를 사용하기 전에 다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • TUNING_JOB_REGION: 조정 작업이 실행되는 리전입니다. 또한 조정된 모델이 업로드되는 기본 리전입니다.
  • TUNING_JOB_ID: 조정 작업의 ID입니다.

HTTP 메서드 및 URL:

GET http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID

요청을 보내려면 다음 옵션 중 하나를 선택합니다.

curl

다음 명령어를 실행합니다.

curl -X GET \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
"http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID"

PowerShell

다음 명령어를 실행합니다.

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri "http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID" | Select-Object -Expand Content

다음과 비슷한 JSON 응답이 수신됩니다.

Python

from vertexai.preview import tuning
from vertexai.preview.tuning import sft
sft_tuning_job=sft.SupervisedTuningJob("projects/<PROJECT_ID>/locations/<TUNING_JOB_REGION>/tuningJobs/<TUNING_JOB_ID>")

콘솔

  1. Google Cloud 콘솔에서 조정된 모델의 세부정보를 보려면 Vertex AI Studio 페이지로 이동합니다.

    Vertex AI Studio로 이동

  2. Gemini Pro 조정 모델 테이블에서 모델을 찾아 세부정보를 클릭합니다.

    모델의 세부정보가 표시됩니다.

조정 작업 취소

Google Cloud 콘솔 또는 Python용 Vertex AI SDK를 사용하거나 tuningJobs 메서드를 사용하여 POST 요청을 전송하여 현재 프로젝트에서 조정 작업을 취소할 수 있습니다.

REST

모델 조정 작업 목록을 보려면 tuningJobs.cancel 메서드를 사용하여 GET 요청을 전송하고 TuningJob_ID를 지정합니다.

요청 데이터를 사용하기 전에 다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • TUNING_JOB_REGION: 조정 작업이 실행되는 리전입니다. 또한 조정된 모델이 업로드되는 기본 리전입니다.
  • TUNING_JOB_ID: 조정 작업의 ID입니다.

HTTP 메서드 및 URL:

POST http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel

요청을 보내려면 다음 옵션 중 하나를 선택합니다.

curl

다음 명령어를 실행합니다.

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d "" \
"http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel"

PowerShell

다음 명령어를 실행합니다.

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-Uri "http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs/TUNING_JOB_ID:cancel" | Select-Object -Expand Content

다음과 비슷한 JSON 응답이 수신됩니다.

Python

from vertexai.preview import tuning
from vertexai.preview.tuning import sft
sft_tuning_job = sft.SupervisedTuningJob("projects/<PROJECT_ID>/locations/<TUNING_JOB_REGION>/tuningJobs/<TUNING_JOB_ID>")
sft_tuning_job.cancel()

콘솔

  1. Google Cloud 콘솔에서 조정 작업을 취소하려면 Vertex AI Studio 페이지로 이동합니다.

    Vertex AI Studio로 이동

  2. Gemini Pro 조정된 모델 테이블에서 실행 관리를 클릭합니다.

  3. 취소를 클릭합니다.

배포된 모델을 사용하여 예측 수행

REST

조정 작업에서 조정된 모델을 사용하여 예측을 수행하려면 POST 요청을 전송하고 TUNED_ENDPOINT_ID를 지정합니다.

요청 데이터를 사용하기 전에 다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • TUNING_JOB_REGION: 조정 작업이 실행되는 리전입니다. 또한 조정된 모델이 업로드되는 기본 리전입니다.
  • ENDPOINT_ID: GET API의 조정된 모델 엔드포인트 ID입니다.
  • TEMPERATURE: 강도는 응답 생성 중 샘플링에 사용되며 topPtopK가 적용될 때 발생합니다. 강도는 토큰 선택의 무작위성 수준을 제어합니다. 온도(temperature)가 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 응답이 필요한 프롬프트에 적합하고, 온도(temperature)가 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. 강도가 0이면 확률이 가장 높은 토큰이 항상 선택됩니다. 이 경우 특정 프롬프트에 대한 응답은 대부분 확정적이지만 여전히 약간의 변형이 가능합니다.

    모델이 너무 일반적이거나, 너무 짧은 응답을 반환하거나 모델이 대체 응답을 제공할 경우에는 강도를 높여보세요.

  • TOP_P: Top-P는 모델이 출력용 토큰을 선택하는 방식을 변경합니다. 토큰은 확률의 합이 Top-P 값과 같아질 때까지 확률이 가장 높은 것부터(Top-K 참조) 가장 낮은 것까지 선택됩니다. 예를 들어 토큰 A, B, C의 확률이 0.3, 0.2, 0.1이고 Top-P 값이 0.5이면 모델이 강도를 사용해서 다음 토큰으로 A 또는 B를 선택하고 C는 후보에서 제외합니다.

    임의성이 낮은 응답에 낮은 값을 지정하고 임의성이 높은 응답에 높은 값을 지정합니다.

  • TOP_K: Top-K는 모델이 출력용 토큰을 선택하는 방식을 변경합니다. Top-K가 1이면 선택된 토큰이 모델의 어휘에 포함된 모든 토큰 중에서 가장 확률이 높다는 의미입니다(그리디 디코딩이라고도 함). 반면에 Top-K가 3이면 강도를 사용하여 가장 확률이 높은 3개 토큰 중에서 다음 토큰이 선택된다는 의미입니다.

    각 토큰 선택 단계에서 확률이 가장 높은 Top-K 토큰이 샘플링됩니다. 그런 다음 Top-P를 기준으로 토큰을 추가로 필터링하고 온도(temperature) 샘플링을 사용하여 최종 토큰을 선택합니다.

    임의성이 낮은 응답에 낮은 값을 지정하고 임의성이 높은 응답에 높은 값을 지정합니다.

  • MAX_OUTPUT_TOKENS: 응답에서 생성될 수 있는 토큰의 최대 개수입니다. 토큰은 약 4자(영문 기준)입니다. 토큰 100개는 단어 약 60~80개에 해당합니다.

    응답이 짧을수록 낮은 값을 지정하고 잠재적으로 응답이 길면 높은 값을 지정합니다.

HTTP 메서드 및 URL:

POST http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent

JSON 요청 본문:

{
    "contents": [
        {
            "role": "USER",
            "parts": {
                "text" : "Why is sky blue?"
            }
        }
    ],
    "generation_config": {
        "temperature":TEMPERATURE,
        "top_p": TOP_P,
        "top_k": TOP_K,
        "max_output_tokens": MAX_OUTPUT_TOKENS
    }
}

요청을 보내려면 다음 옵션 중 하나를 선택합니다.

curl

요청 본문을 request.json 파일에 저장하고 다음 명령어를 실행합니다.

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent"

PowerShell

요청 본문을 request.json 파일에 저장하고 다음 명령어를 실행합니다.

$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }

Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "http://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/endpoints/ENDPOINT_ID:generateContent" | Select-Object -Expand Content

다음과 비슷한 JSON 응답이 수신됩니다.

Python

from vertexai.preview.generative_models import GenerativeModel
from vertexai.preview import tuning
from vertexai.preview.tuning import sft

sft_tuning_job = sft.SupervisedTuningJob("projects/<PROJECT_ID>/locations/<TUNING_JOB_REGION>/tuningJobs/<TUNING_JOB_ID>")
tuned_model = GenerativeModel(sft_tuning_job.tuned_model_endpoint_name)
print(tuned_model.generate_content(content))

콘솔

  1. Google Cloud 콘솔에서 조정된 모델의 세부정보를 보려면 Vertex AI Studio 페이지로 이동합니다.

    Vertex AI Studio로 이동

  2. Gemini Pro 조정 모델 테이블에서 테스트를 선택합니다.

    조정된 모델과의 대화를 만들 수 있는 페이지가 열립니다.

측정항목 조정 및 검증

모델 조정 작업을 구성하여 모델 조정 및 모델 평가 측정항목을 수집하고 보고할 수 있습니다. 그런 후 Vertex AI Studio에서 시각화할 수 있습니다.

모델 조정 측정항목

모델 조정 작업은 gemini-1.0-pro-002에 대해 다음 조정 측정항목을 자동으로 수집합니다.

  • /train_total_loss: 학습 단계의 조정 데이터 세트 손실
  • /train_fraction_of_correct_next_step_preds: 학습 단계의 토큰 정확성. 단일 예측은 일련의 토큰으로 구성됩니다. 이 측정항목은 조정 데이터 세트의 정답과 비교할 때 예측된 토큰의 정확도를 측정합니다.
  • /train_num_predictions: 학습 단계에서 예측된 토큰 수

모델 검증 측정항목:

gemini-1.0-pro-002에 대해 다음 검증 측정항목을 수집하도록 모델 조정 작업을 구성할 수 있습니다.

  • /eval_total_loss: 검증 단계의 검증 데이터 세트 손실
  • /eval_fraction_of_correct_next_step_preds: 검증 단계의 토큰 정확성. 단일 예측은 일련의 토큰으로 구성됩니다. 이 측정항목은 검증 데이터 세트의 정답과 비교할 때 예측된 토큰의 정확도를 측정합니다.
  • /eval_num_predictions: 검증 단계에서 예측된 토큰 수

모델 조정 작업이 완료된 후 측정항목 시각화를 사용할 수 있습니다. 조정 작업을 만들 때 검증 데이터 세트를 지정하지 않으면 조정 측정항목의 시각화만 제공됩니다.

다음 단계