데이터를 사용하여 모델 조정

이 문서에서는 text-bison Vertex AI 자연어 기반 모델의 모든 버전을 참조하고 지도 조정을 수행하도록 모델을 구성하는 BigQuery ML 원격 모델을 만드는 방법을 보여줍니다. 원격 모델을 만든 후 ML.EVALUATE 함수를 사용하여 모델을 평가하고 모델 성능이 사용 사례에 적합한지 확인합니다. 그런 다음 모델을 ML.GENERATE_TEXT 함수와 함께 사용하여 BigQuery 테이블의 텍스트를 분석할 수 있습니다.

필수 권한

  • 연결을 만들려면 다음 Identity and Access Management(IAM) 역할에 멤버십이 필요합니다.

    • roles/bigquery.connectionAdmin
  • 연결의 서비스 계정에 권한을 부여하려면 다음 권한이 필요합니다.

    • resourcemanager.projects.setIamPolicy
  • BigQuery ML을 사용하여 모델을 만들려면 다음 IAM 권한이 필요합니다.

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.models.updateMetadata
  • 추론을 실행하려면 다음 권한이 필요합니다.

    • 테이블에 대한 bigquery.tables.getData
    • 모델에 대한 bigquery.models.getData
    • bigquery.jobs.create

시작하기 전에

  1. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  2. Google Cloud 프로젝트에 결제가 사용 설정되어 있는지 확인합니다.

  3. Enable the BigQuery, BigQuery Connection,Vertex AI, and Compute Engine APIs.

    Enable the APIs

연결 만들기

클라우드 리소스 연결을 만들고 연결의 서비스 계정을 가져옵니다.

다음 옵션 중 하나를 선택합니다.

콘솔

  1. BigQuery 페이지로 이동합니다.

    BigQuery로 이동

  2. 연결을 만들려면 추가를 클릭한 다음 외부 데이터 소스에 연결을 클릭합니다.

  3. 연결 유형 목록에서 Vertex AI 원격 모델, 원격 함수, BigLake(Cloud 리소스)를 선택합니다.

  4. 연결 ID 필드에 연결 이름을 입력합니다.

  5. 연결 만들기를 클릭합니다.

  6. 연결로 이동을 클릭합니다.

  7. 연결 정보 창에서 나중의 단계에 사용할 서비스 계정 ID를 복사합니다.

bq

  1. 명령줄 환경에서 연결을 만듭니다.

    bq mk --connection --location=REGION --project_id=PROJECT_ID \
        --connection_type=CLOUD_RESOURCE CONNECTION_ID
    

    --project_id 매개변수는 기본 프로젝트를 재정의합니다.

    다음을 바꿉니다.

    • REGION: 연결 리전
    • PROJECT_ID: Google Cloud 프로젝트 ID
    • CONNECTION_ID: 연결의 ID

    연결 리소스를 만들면 BigQuery가 고유한 시스템 서비스 계정을 만들고 이를 연결에 연계합니다.

    문제 해결: 다음 연결 오류가 발생하면 Google Cloud SDK를 업데이트하세요.

    Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
    
  2. 이후 단계에서 사용할 수 있도록 서비스 계정 ID를 가져와 복사합니다.

    bq show --connection PROJECT_ID.REGION.CONNECTION_ID
    

    출력은 다음과 비슷합니다.

    name                          properties
    1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
    

Terraform

main.tf 파일에 다음 섹션을 추가합니다.

 ## This creates a cloud resource connection.
 ## Note: The cloud resource nested object has only one output only field - serviceAccountId.
 resource "google_bigquery_connection" "connection" {
    connection_id = "CONNECTION_ID"
    project = "PROJECT_ID"
    location = "REGION"
    cloud_resource {}
}        
다음을 바꿉니다.

  • CONNECTION_ID: 연결의 ID
  • PROJECT_ID: Google Cloud 프로젝트 ID
  • REGION: 연결 리전

연결의 서비스 계정에 액세스 권한 부여

서비스 계정에 Vertex AI 액세스 권한을 부여합니다. 권한을 부여하지 않으면 오류가 발생합니다. 다음 옵션 중 하나를 선택합니다.

콘솔

  1. IAM 및 관리자 페이지로 이동합니다.

    IAM 및 관리자로 이동

  2. 액세스 권한 부여를 클릭합니다.

  3. 새 주 구성원에 앞에서 복사한 서비스 계정 ID를 입력합니다.

  4. 역할 선택을 클릭합니다.

  5. 필터Vertex AI Service Agent를 입력한 다음 해당 역할을 선택합니다.

  6. 저장을 클릭합니다.

gcloud

gcloud projects add-iam-policy-binding 명령어를 사용합니다.

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.serviceAgent' --condition=None

다음을 바꿉니다.

  • PROJECT_NUMBER: 프로젝트 번호
  • MEMBER: 이전에 복사한 서비스 계정 ID

연결과 연결된 서비스 계정은 BigQuery 연결 위임 서비스 에이전트의 인스턴스이므로 서비스 에이전트 역할을 할당해도 됩니다.

Compute Engine 기본 서비스 계정에 액세스 권한 부여

Compute Engine API를 사용 설정하면 프로젝트에서 동작을 사용 중지하지 않은 한 Compute Engine 기본 서비스 계정에 프로젝트에 대한 편집자 역할이 자동으로 부여됩니다. 사용 중지한 경우에는 원격 모델을 만들고 조정할 수 있는 충분한 권한을 갖도록 Compute Engine 기본 서비스 계정에 편집자 역할을 다시 부여해야 합니다.

콘솔

  1. IAM 및 관리자 페이지로 이동합니다.

    IAM 및 관리자로 이동

  2. 액세스 권한 부여를 클릭합니다.

  3. 새 주 구성원에 서비스 계정 ID(PROJECT_NUMBER-compute@developer.gserviceaccount.com)를 입력합니다.

  4. 역할 선택을 클릭합니다.

  5. 역할 선택에서 기본을 선택한 다음 편집자를 선택합니다.

  6. 저장을 클릭합니다.

gcloud

gcloud projects add-iam-policy-binding 명령어를 사용합니다.

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/editor' --condition=None

다음을 바꿉니다.

  • PROJECT_NUMBER: 프로젝트 번호
  • MEMBER: 서비스 계정 ID(PROJECT_NUMBER-compute@developer.gserviceaccount.com)입니다.

조정 서비스 에이전트 만들기

AI Platform 미세 조정 서비스 에이전트 인스턴스를 만들려면 다음을 수행합니다.

  1. gcloud beta services identity create 명령어을 사용하여 조정 서비스 에이전트를 만듭니다.

    gcloud beta services identity create --service=aiplatform.googleapis.com --project=PROJECT_NUMBER
    

    여기에서 PROJECT_NUMBER를 프로젝트 번호로 바꿉니다.

  2. gcloud projects add-iam-policy-binding 명령어를 사용하여 조정 서비스 에이전트에 Vertex AI 서비스 에이전트(roles/aiplatform.serviceAgent) 역할을 부여합니다.

    gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:service-PROJECT_NUMBER@gcp-sa-aiplatform-ft.iam.gserviceaccount.com' --role='roles/aiplatform.serviceAgent'
    

    여기에서 PROJECT_NUMBER를 프로젝트 번호로 바꿉니다.

지도 조정으로 모델 만들기

  1. Google Cloud 콘솔에서 BigQuery 페이지로 이동합니다.

    BigQuery로 이동

  2. 쿼리 편집기에서 다음 쿼리를 실행하여 원격 모델을 만듭니다.

    CREATE OR REPLACE MODEL
    `PROJECT_ID.DATASET_ID.MODEL_NAME`
    REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID`
    OPTIONS (
      ENDPOINT = 'ENDPOINT',
      MAX_ITERATIONS = MAX_ITERATIONS,
      EARLY_STOP = EARLY_STOP,
      LEARNING_RATE_MULTIPLIER = LEARNING_RATE_MULTIPLIER,
      ACCELERATOR_TYPE = 'ACCELERATOR_TYPE',
      DATA_SPLIT_METHOD = 'DATA_SPLIT_METHOD',
      DATA_SPLIT_EVAL_FRACTION = DATA_SPLIT_EVAL_FRACTION,
      DATA_SPLIT_COL = 'DATA_SPLIT_COL',
      EVALUATION_TASK = 'EVALUATION_TASK',
      PROMPT_COL = 'INPUT_PROMPT_COL',
      INPUT_LABEL_COLS = INPUT_LABEL_COLS)
    AS SELECT PROMPT_COLUMN, LABEL_COLUMN
    FROM `TABLE_PROJECT_ID.TABLE_DATASET.TABLE_NAME`;
    

    다음을 바꿉니다.

    • PROJECT_ID: 모델을 만들 프로젝트의 프로젝트 ID.
    • DATASET_ID: 모델을 포함할 데이터 세트의 ID. 이 데이터 세트는 지원되는 파이프라인 작업 및 모델 업로드 리전에 있어야 합니다.
    • MODEL_NAME: 모델의 이름
    • REGION: 연결에 사용되는 리전
    • CONNECTION_ID: BigQuery 연결의 ID. 이 연결은 사용 중인 데이터 세트와 동일한 위치에 있어야 합니다.

      Google Cloud 콘솔에서 연결 세부정보를 볼 때, 이 값은 연결 ID에 표시되는 정규화된 연결 ID의 마지막 섹션에 있는 값입니다(예: projects/myproject/locations/connection_location/connections/myconnection).

    • ENDPOINT: 사용할 텍스트 LLM의 이름을 지정하는 STRING 값. 이 경우에는 text-bison 모델의 버전이어야 합니다.
    • MAX_ITERATIONS: 지도 조정을 위해 실행할 단계 수를 지정하는 INT64 값. MAX_ITERATIONS 값은 1에서 2400 사이여야 합니다. 일반적으로 100단계를 완료하는 데 약 1시간이 걸립니다. 기본값은 300입니다.

      MAX_ITERATIONS 값과 ACCELERATOR_TYPE 값의 조합은 모델 학습에 사용되는 배치 크기에 영향을 줍니다. 학습 단계 수 선택에 대한 자세한 안내는 추천 구성을 참조하세요.

      자세한 내용은 MAX_ITERATIONS를 참조하세요.

    • EARLY_STOP: 모든 조정 단계를 완료하기 전에 지도 조정을 중지할지 여부를 결정하는 BOOL 값. TRUE로 설정하면 예측 토큰의 정확성으로 측정되는 모델 성능이 평가 실행 사이에 충분히 향상되지 않을 경우 지도 조정이 중지됩니다. FALSE로 설정하면 모든 조정 단계가 완료될 때까지 지도 조정이 계속됩니다. 기본값은 FALSE입니다.
    • LEARNING_RATE_MULTIPLIER: FLOAT64. 권장 학습률에 적용할 배수. 기본값은 1.0입니다.
    • ACCELERATOR_TYPE: 지도 조정에 사용할 가속기 유형을 지정하는 STRING 값. 유효한 옵션은 다음과 같습니다.
      • GPU: 지도 조정에 A100 80GB GPU 사용
      • TPU: 지도 조정에 TPU v3 포드 코어 64개 사용. 이 옵션을 선택하면 다음 사항이 적용됩니다.
        • europe-west4 리전에서 쿼리를 실행해야 합니다. 위치와 같은 쿼리 옵션 변경에 대한 자세한 내용은 대화형 쿼리 실행을 참조하세요.
        • 지도 조정 계산은 TPU 리소스가 있는 europe-west4 리전에서 수행됩니다.

      기본값은 GPU입니다. 어떤 옵션을 사용하든 할당량이 충분한지 확인하세요.

    • DATA_SPLIT_METHOD: 입력 데이터를 학습 세트 및 평가 세트로 분할하는 데 사용되는 방법을 지정하는 STRING 값입니다. 유효한 옵션은 다음과 같습니다.
      • AUTO_SPLIT: BigQuery ML이 데이터를 자동으로 분할합니다. 데이터가 분할되는 방법은 입력 테이블의 행 수에 따라 다릅니다. 이 설정이 기본 설정입니다.
      • RANDOM: 데이터가 세트로 분할되기 전에 무작위로 지정됩니다. 데이터 분할을 맞춤설정하려면 DATA_SPLIT_EVAL_FRACTION 옵션과 함께 이 옵션을 사용하면 됩니다.
      • CUSTOM: 데이터가 DATA_SPLIT_COL 옵션에 제공된 열을 사용하여 분할됩니다. DATA_SPLIT_COL 값은 BOOL 유형의 열 이름이어야 합니다. 값이 TRUE 또는 NULL인 행은 평가 데이터로 사용되고, 값이 FALSE인 행은 학습 데이터로 사용됩니다.
      • SEQ: DATA_SPLIT_COL 옵션에 제공된 열을 사용하여 데이터를 분할합니다. DATA_SPLIT_COL 값은 다음 유형 중 하나의 열 이름이어야 합니다.
        • NUMERIC
        • BIGNUMERIC
        • STRING
        • TIMESTAMP

        데이터가 지정된 열을 기준으로 가장 작은 값부터 큰 값까지 정렬됩니다.

        처음 n개 행은 평가 데이터로 사용되며, 여기서 nDATA_SPLIT_EVAL_FRACTION에 지정된 값입니다. 나머지 행은 학습 데이터로 사용됩니다.

      • NO_SPLIT: 데이터 분할 없음. 모든 입력 데이터가 학습 데이터로 사용됩니다.

      이러한 데이터 분할 옵션에 대한 자세한 내용은 DATA_SPLIT_METHOD를 참조하세요.

    • DATA_SPLIT_EVAL_FRACTION: 지도 조정을 수행할 때 평가 데이터로 사용할 데이터의 비율을 지정하는 FLOAT64 값입니다. [0, 1.0] 범위의 값이어야 합니다. 기본값은 0.2입니다.

      DATA_SPLIT_METHOD 옵션의 값으로 RANDOM 또는 SEQ를 지정하는 경우 이 옵션을 사용합니다. 데이터 분할을 맞춤설정하려면 DATA_SPLIT_METHOD 옵션을 DATA_SPLIT_EVAL_FRACTION 옵션과 함께 사용합니다.

    • DATA_SPLIT_COL: 입력 데이터를 학습 또는 평가 세트로 정렬하는 데 사용할 열의 이름을 지정하는 STRING 값입니다. CUSTOM 또는 SEQDATA_SPLIT_METHOD 옵션의 값으로 지정할 때 사용합니다.
    • EVALUATION_TASK: 모델을 조정하려는 태스크 유형을 지정하는 STRING 값입니다. 유효한 옵션은 다음과 같습니다.
      • TEXT_GENERATION
      • CLASSIFICATION
      • SUMMARIZATION
      • QUESTION_ANSWERING
      • UNSPECIFIED

      기본값은 UNSPECIFIED입니다.

    • INPUT_PROMPT_COL: 지도 조정을 수행할 때 사용할 학습 데이터 테이블의 프롬프트 열 이름이 포함된 STRING 값입니다. 기본값은 prompt입니다.
    • INPUT_LABEL_COLS: 지도 조정에 사용할 학습 데이터 테이블의 라벨 열 이름이 포함된 ARRAY<<STRING> 값입니다. 배열에서 요소를 하나만 지정할 수 있습니다. 기본값은 빈 배열입니다. 이렇게 하면 labelLABEL_COLUMN 인수의 기본값이 됩니다.
    • PROMPT_COLUMN: LABEL_COLUMN 열의 콘텐츠를 평가하기 위한 프롬프트가 포함된 학습 데이터 테이블의 열입니다. 이 열은 STRING 유형이거나 STRING으로 변환되어야 합니다. INPUT_PROMPT_COL 옵션의 값을 지정하는 경우 PROMPT_COLUMN에 동일한 값을 지정해야 합니다. 그렇지 않으면 이 값은 prompt이어야 합니다. 테이블에 prompt 열이 없으면 별칭을 사용하여 기존 테이블 열을 지정합니다. 예를 들면 AS SELECT hint AS prompt, label FROM mydataset.mytable입니다.
    • LABEL_COLUMN: 모델을 학습시킬 예가 포함된 학습 데이터 테이블의 열입니다. 이 열은 STRING 유형이거나 STRING으로 변환되어야 합니다. INPUT_LABEL_COLS 옵션의 값을 지정하는 경우 LABEL_COLUMN에 동일한 값을 지정해야 합니다. 그렇지 않으면 이 값은 label이어야 합니다. 테이블에 label 열이 없으면 별칭을 사용하여 기존 테이블 열을 지정합니다. 예를 들면 AS SELECT prompt, feature AS label FROM mydataset.mytable입니다.
    • TABLE_PROJECT_ID: 학습 데이터 테이블이 포함된 프로젝트의 프로젝트 ID입니다.
    • TABLE_DATASET: 학습 데이터 테이블이 포함된 데이터 세트의 이름입니다.
    • TABLE_NAME: 모델을 학습시키는 데 사용할 데이터가 포함된 테이블의 이름입니다.

조정된 모델 평가

  1. Google Cloud 콘솔에서 BigQuery 페이지로 이동합니다.

    BigQuery로 이동

  2. 쿼리 편집기에서 다음 쿼리를 실행하여 조정된 모델을 평가합니다.

    SELECT
    *
    FROM
    ML.EVALUATE(
      MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
      TABLE `TABLE_PROJECT_ID.TABLE_DATASET.TABLE_NAME`,
      STRUCT('TASK_TYPE' AS task_type, TOKENS AS max_output_tokens,
        TEMPERATURE AS temperature, TOP_K AS top_k,
        TOP_P AS top_p));
    

    다음을 바꿉니다.

    • PROJECT_ID: 데이터 세트가 포함된 프로젝트의 프로젝트 ID
    • DATASET_ID: 모델이 포함된 데이터 세트의 ID
    • MODEL_NAME: 모델의 이름
    • TABLE_PROJECT_ID: 평가 데이터 테이블이 포함된 프로젝트의 프로젝트 ID
    • TABLE_DATASET: 평가 데이터 테이블이 포함된 데이터 세트의 이름
    • TABLE_NAME: 평가 데이터가 포함된 테이블의 이름

      테이블에는 모델 학습 중에 제공된 프롬프트 열 이름과 일치하는 열이 있어야 합니다. 모델 학습 중에 prompt_col 옵션을 사용하여 이 값을 제공할 수 있습니다. prompt_col이 지정되지 않으면 학습 데이터의 prompt 열이 사용됩니다. prompt라는 열이 없으면 오류가 반환됩니다.

      테이블에는 모델 학습 중에 제공된 라벨 열 이름과 일치하는 열이 있어야 합니다. 모델 학습 중에 input_label_cols 옵션을 사용하여 이 값을 제공할 수 있습니다. input_label_cols이 지정되지 않으면 학습 데이터의 label 열이 사용됩니다. label이라는 열이 없으면 오류가 반환됩니다.

    • TASK_TYPE: 모델을 평가하려는 태스크 유형을 지정하는 STRING 값. 유효한 옵션은 다음과 같습니다.
      • TEXT_GENERATION
      • CLASSIFICATION
      • SUMMARIZATION
      • QUESTION_ANSWERING
      • UNSPECIFIED
    • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값. 이 값은 [1,1024] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 128입니다.
    • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값. 기본값은 0입니다.

      temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

    • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 40입니다.
    • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 TOP_K가 결정한 풀에서 선택할 토큰을 결정하도록 도와줍니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.

텍스트 생성

ML.GENERATE_TEXT 함수로 텍스트를 생성합니다.

프롬프트 열

프롬프트를 제공하는 테이블 열을 사용해서 텍스트를 생성합니다.

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • TABLE_NAME: 프롬프트가 포함된 테이블의 이름. 이 테이블에는 이름이 조정된 LLM의 특성 열 이름과 일치하는 열이 있어야 합니다. LLM의 특성 열 이름은 모델을 만들 때 PROMPT_COL 옵션을 사용하여 설정할 수 있습니다. 그렇지 않으면 LLM의 특성 열 이름이 기본적으로 prompt거나 별칭을 사용하여 다른 이름의 열을 사용할 수 있습니다.
  • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값. 이 값은 [1,1024] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 128입니다.
  • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값. 기본값은 0입니다.

    temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

  • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 40입니다.
  • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 토큰이 선택될 확률을 결정하는 데 도움이 됩니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.
  • FLATTEN_JSON: 생성된 텍스트 및 보안 특성을 개별 열로 반환할지 여부를 결정하는 BOOL 값. 기본값은 FALSE입니다.
  • STOP_SEQUENCES: 지정한 문자열이 모델의 응답에 포함된 경우 이 문자열을 제거하는 ARRAY<STRING> 값. 문자열은 대문자 사용을 비롯해 정확히 일치합니다. 기본값은 빈 배열입니다.

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • 프롬프트에 prompts 테이블의 prompt 열을 사용합니다.
  • 다소 가능성이 있는 짧은 응답을 반환합니다.
  • 생성된 텍스트와 보안 특성을 별도의 열에 반환합니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output));

프롬프트 쿼리

프롬프트를 제공하는 쿼리를 사용해서 텍스트를 생성합니다.

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • PROMPT_QUERY: 프롬프트 데이터를 제공하는 쿼리
  • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값입니다. 이 값은 [1,1024] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 128입니다.
  • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값. 기본값은 0입니다.

    temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

  • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 40입니다.
  • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 토큰이 선택될 확률을 결정하는 데 도움이 됩니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.
  • FLATTEN_JSON: 생성된 텍스트 및 보안 특성을 개별 열로 반환할지 여부를 결정하는 BOOL 값. 기본값은 FALSE입니다.
  • STOP_SEQUENCES: 지정한 문자열이 모델의 응답에 포함된 경우 이 문자열을 제거하는 ARRAY<STRING> 값. 문자열은 대문자 사용을 비롯해 정확히 일치합니다. 기본값은 빈 배열입니다.

예시 1

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • articles 테이블의 body 열에 있는 텍스트 요약을 요청하는 프롬프트입니다.
  • 적당히 길고 가능성이 높은 응답을 반환합니다.
  • 생성된 텍스트와 보안 특성을 별도의 열에 반환합니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p,
      15 AS top_k, TRUE AS flatten_json_output));

예시 2

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • 쿼리를 사용하여 테이블 열에 프롬프트 프리픽스를 제공하는 문자열을 연결하여 프롬프트 데이터를 만듭니다.
  • 다소 가능성이 있는 짧은 응답을 반환합니다.
  • 생성된 텍스트와 안전 속성이 별도의 열에 반환되지 않습니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_tuned_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      30 AS top_k, FALSE AS flatten_json_output));