ML.GENERATE_TEXT 함수를 사용하여 텍스트 생성

이 문서에서는 Vertex AI 기반 모델을 참조하는 BigQuery ML 원격 모델을 만드는 방법을 설명합니다. 그런 다음 이 모델을 ML.GENERATE_TEXT 함수와 함께 사용하여 BigQuery 테이블에서 텍스트 또는 시각적 콘텐츠를 분석할 수 있습니다.

필수 권한

  • 연결을 만들려면 다음 Identity and Access Management(IAM) 역할에 멤버십이 필요합니다.

    • roles/bigquery.connectionAdmin
  • 연결의 서비스 계정에 권한을 부여하려면 다음 권한이 필요합니다.

    • resourcemanager.projects.setIamPolicy
  • BigQuery ML을 사용하여 모델을 만들려면 다음 IAM 권한이 필요합니다.

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.models.updateMetadata
  • 추론을 실행하려면 다음 권한이 필요합니다.

    • 테이블에 대한 bigquery.tables.getData
    • 모델에 대한 bigquery.models.getData
    • bigquery.jobs.create

시작하기 전에

  1. Google Cloud Console의 프로젝트 선택기 페이지에서 Google Cloud 프로젝트를 선택하거나 만듭니다.

    프로젝트 선택기로 이동

  2. Google Cloud 프로젝트에 결제가 사용 설정되어 있는지 확인합니다.

  3. API BigQuery, BigQuery Connection, and Vertex AI 사용 설정

    API 사용 설정

객체 테이블에서 시각적 콘텐츠를 분석하기 위해 gemini-pro-vision 모델에 ML.GENERATE_TEXT를 사용하려면 Enterprise 또는 Enterprise Plus 예약이 있어야 합니다. 자세한 내용은 예약 만들기를 참조하세요.

연결 만들기

클라우드 리소스 연결을 만들고 연결의 서비스 계정을 가져옵니다.

다음 옵션 중 하나를 선택합니다.

콘솔

  1. BigQuery 페이지로 이동합니다.

    BigQuery로 이동

  2. 연결을 만들려면 추가를 클릭한 다음 외부 데이터 소스에 연결을 클릭합니다.

  3. 연결 유형 목록에서 Vertex AI 원격 모델, 원격 함수, BigLake(Cloud 리소스)를 선택합니다.

  4. 연결 ID 필드에 연결 이름을 입력합니다.

  5. 연결 만들기를 클릭합니다.

  6. 연결로 이동을 클릭합니다.

  7. 연결 정보 창에서 나중의 단계에 사용할 서비스 계정 ID를 복사합니다.

bq

  1. 명령줄 환경에서 연결을 만듭니다.

    bq mk --connection --location=REGION --project_id=PROJECT_ID \
        --connection_type=CLOUD_RESOURCE CONNECTION_ID
    

    --project_id 매개변수는 기본 프로젝트를 재정의합니다.

    다음을 바꿉니다.

    • REGION: 연결 리전
    • PROJECT_ID: Google Cloud 프로젝트 ID
    • CONNECTION_ID: 연결의 ID

    연결 리소스를 만들면 BigQuery가 고유한 시스템 서비스 계정을 만들고 이를 연결에 연계합니다.

    문제 해결: 다음 연결 오류가 발생하면 Google Cloud SDK를 업데이트하세요.

    Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
    
  2. 이후 단계에서 사용할 수 있도록 서비스 계정 ID를 가져와 복사합니다.

    bq show --connection PROJECT_ID.REGION.CONNECTION_ID
    

    출력은 다음과 비슷합니다.

    name                          properties
    1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
    

Terraform

main.tf 파일에 다음 섹션을 추가합니다.

 ## This creates a cloud resource connection.
 ## Note: The cloud resource nested object has only one output only field - serviceAccountId.
 resource "google_bigquery_connection" "connection" {
    connection_id = "CONNECTION_ID"
    project = "PROJECT_ID"
    location = "REGION"
    cloud_resource {}
}        
다음을 바꿉니다.

  • CONNECTION_ID: 연결의 ID
  • PROJECT_ID: Google Cloud 프로젝트 ID
  • REGION: 연결 리전

서비스 계정에 액세스 권한 부여

서비스 계정에 연결 사용 권한을 부여합니다. 권한을 부여하지 않으면 오류가 발생합니다. 다음 옵션 중 하나를 선택합니다.

콘솔

  1. IAM 및 관리자 페이지로 이동합니다.

    IAM 및 관리자로 이동

  2. 추가를 클릭합니다.

    주 구성원 추가 대화상자가 열립니다.

  3. 새 주 구성원 필드에 앞에서 복사한 서비스 계정 ID를 입력합니다.

  4. 역할 선택 필드에서 Vertex AI를 선택한 후 Vertex AI 사용자를 선택합니다.

  5. 저장을 클릭합니다.

gcloud

gcloud projects add-iam-policy-binding 명령어를 사용합니다.

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None

다음을 바꿉니다.

  • PROJECT_NUMBER: 프로젝트 번호
  • MEMBER: 이전에 복사한 서비스 계정 ID

모델 만들기

  1. Google Cloud 콘솔에서 BigQuery 페이지로 이동합니다.

    BigQuery로 이동

  2. SQL 편집기를 사용하여 원격 모델을 만듭니다.

    CREATE OR REPLACE MODEL
    `PROJECT_ID.DATASET_ID.MODEL_NAME`
    REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID`
    OPTIONS (ENDPOINT = 'ENDPOINT');
    

    다음을 바꿉니다.

    • PROJECT_ID: 프로젝트 ID입니다.
    • DATASET_ID: 모델을 포함할 데이터 세트의 ID입니다. 이 데이터 세트는 사용 중인 연결과 동일한 위치에 있어야 합니다.
    • MODEL_NAME: 모델의 이름
    • REGION: 연결에 사용되는 리전
    • CONNECTION_ID: BigQuery 연결의 ID

      Google Cloud 콘솔에서 연결 세부정보를 볼 때, 이 값은 연결 ID에 표시되는 정규화된 연결 ID의 마지막 섹션에 있는 값입니다(예: projects/myproject/locations/connection_location/connections/myconnection).

    • ENDPOINT: 사용할 지원되는 Vertex AI 모델의 이름입니다. 예를 들면 ENDPOINT='gemini-pro'입니다.

      일부 모델 유형의 경우 모델 이름에 @version을 추가해서 모델의 특정 버전을 지정할 수 있습니다. 예를 들면 text-bison@001입니다. 여러 모델 유형의 지원되는 모델 버전에 대한 자세한 내용은 ENDPOINT를 참조하세요.

테이블에서 프롬프트를 사용하여 텍스트 데이터에서 텍스트 생성

지원되는 Vertex AI Gemini API 또는 Vertex AI PaLM API 텍스트 모델 및 테이블 열의 프롬프트를 기반으로 하는 원격 모델과 함께 ML.GENERATE_TEXT 함수를 사용하여 텍스트를 생성합니다.

gemini-pro

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • TABLE_NAME: 프롬프트가 포함된 테이블의 이름. 이 테이블에는 이름이 prompt인 열이 있어야 합니다. 또는 별칭을 사용하여 다른 이름의 열을 사용할 수 있습니다.
  • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값. 이 값은 [1,8192] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 128입니다.
  • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값. 기본값은 0입니다.

    temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

  • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 40입니다.
  • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 TOP_K가 결정한 풀에서 선택할 토큰을 결정하도록 도와줍니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.
  • FLATTEN_JSON: 생성된 텍스트 및 보안 특성을 개별 열로 반환할지 여부를 결정하는 BOOL 값. 기본값은 FALSE입니다.
  • STOP_SEQUENCES: 지정한 문자열이 모델의 응답에 포함된 경우 이 문자열을 제거하는 ARRAY<STRING> 값. 문자열은 대문자 사용을 비롯해 정확히 일치합니다. 기본값은 빈 배열입니다.

예시

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • 프롬프트에 prompts 테이블의 prompt 열을 사용합니다.
  • 다소 가능성이 있는 짧은 응답을 반환합니다.
  • 생성된 텍스트와 보안 특성을 별도의 열에 반환합니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output));

text-bison

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • TABLE_NAME: 프롬프트가 포함된 테이블의 이름. 이 테이블에는 이름이 prompt인 열이 있어야 합니다. 또는 별칭을 사용하여 다른 이름의 열을 사용할 수 있습니다.
  • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값. 이 값은 [1,1024] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 128입니다.
  • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값. 기본값은 0입니다.

    temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

  • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 40입니다.
  • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 TOP_K가 결정한 풀에서 선택할 토큰을 결정하도록 도와줍니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.
  • FLATTEN_JSON: 생성된 텍스트 및 보안 특성을 개별 열로 반환할지 여부를 결정하는 BOOL 값. 기본값은 FALSE입니다.
  • STOP_SEQUENCES: 지정한 문자열이 모델의 응답에 포함된 경우 이 문자열을 제거하는 ARRAY<STRING> 값. 문자열은 대문자 사용을 비롯해 정확히 일치합니다. 기본값은 빈 배열입니다.

예시

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • 프롬프트에 prompts 테이블의 prompt 열을 사용합니다.
  • 다소 가능성이 있는 짧은 응답을 반환합니다.
  • 생성된 텍스트와 보안 특성을 별도의 열에 반환합니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output));

text-bison32

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • TABLE_NAME: 프롬프트가 포함된 테이블의 이름. 이 테이블에는 이름이 prompt인 열이 있어야 합니다. 또는 별칭을 사용하여 다른 이름의 열을 사용할 수 있습니다.
  • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값. 이 값은 [1,8192] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 128입니다.
  • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값. 기본값은 0입니다.

    temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

  • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 40입니다.
  • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 TOP_K가 결정한 풀에서 선택할 토큰을 결정하도록 도와줍니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.
  • FLATTEN_JSON: 생성된 텍스트 및 보안 특성을 개별 열로 반환할지 여부를 결정하는 BOOL 값. 기본값은 FALSE입니다.
  • STOP_SEQUENCES: 지정한 문자열이 모델의 응답에 포함된 경우 이 문자열을 제거하는 ARRAY<STRING> 값. 문자열은 대문자 사용을 비롯해 정확히 일치합니다. 기본값은 빈 배열입니다.

예시

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • 프롬프트에 prompts 테이블의 prompt 열을 사용합니다.
  • 다소 가능성이 있는 짧은 응답을 반환합니다.
  • 생성된 텍스트와 보안 특성을 별도의 열에 반환합니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output));

text-unicorn

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • TABLE_NAME: 프롬프트가 포함된 테이블의 이름. 이 테이블에는 이름이 prompt인 열이 있어야 합니다. 또는 별칭을 사용하여 다른 이름의 열을 사용할 수 있습니다.
  • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값. 이 값은 [1,1024] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 128입니다.
  • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값. 기본값은 0입니다.

    temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

  • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 40입니다.
  • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 TOP_K가 결정한 풀에서 선택할 토큰을 결정하도록 도와줍니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.
  • FLATTEN_JSON: 생성된 텍스트 및 보안 특성을 개별 열로 반환할지 여부를 결정하는 BOOL 값. 기본값은 FALSE입니다.
  • STOP_SEQUENCES: 지정한 문자열이 모델의 응답에 포함된 경우 이 문자열을 제거하는 ARRAY<STRING> 값. 문자열은 대문자 사용을 비롯해 정확히 일치합니다. 기본값은 빈 배열입니다.

예시

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • 프롬프트에 prompts 테이블의 prompt 열을 사용합니다.
  • 다소 가능성이 있는 짧은 응답을 반환합니다.
  • 생성된 텍스트와 보안 특성을 별도의 열에 반환합니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    TABLE mydataset.prompts,
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      40 AS top_k, TRUE AS flatten_json_output));

쿼리의 프롬프트를 사용하여 텍스트 데이터에서 텍스트 생성

지원되는 Gemini API 또는 PaLM API 텍스트 모델 및 프롬프트를 제공하는 쿼리를 기반으로 하는 원격 모델과 함께 ML.GENERATE_TEXT 함수를 사용하여 텍스트를 생성합니다.

gemini-pro

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • PROMPT_QUERY: 프롬프트 데이터를 제공하는 쿼리
  • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값. 이 값은 [1,8192] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 128입니다.
  • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값. 기본값은 0입니다.

    temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

  • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 40입니다.
  • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 TOP_K가 결정한 풀에서 선택할 토큰을 결정하도록 도와줍니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.
  • FLATTEN_JSON: 생성된 텍스트 및 보안 특성을 개별 열로 반환할지 여부를 결정하는 BOOL 값. 기본값은 FALSE입니다.
  • STOP_SEQUENCES: 지정한 문자열이 모델의 응답에 포함된 경우 이 문자열을 제거하는 ARRAY<STRING> 값. 문자열은 대문자 사용을 비롯해 정확히 일치합니다. 기본값은 빈 배열입니다.

예시 1

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • articles 테이블의 body 열에 있는 텍스트 요약을 요청하는 프롬프트입니다.
  • 적당히 길고 가능성이 높은 응답을 반환합니다.
  • 생성된 텍스트와 보안 특성을 별도의 열에 반환합니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p,
      15 AS top_k, TRUE AS flatten_json_output));

예시 2

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • 쿼리를 사용하여 테이블 열에 프롬프트 프리픽스를 제공하는 문자열을 연결하여 프롬프트 데이터를 만듭니다.
  • 다소 가능성이 있는 짧은 응답을 반환합니다.
  • 생성된 텍스트와 안전 속성이 별도의 열에 반환되지 않습니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      30 AS top_k, FALSE AS flatten_json_output));

text-bison

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • PROMPT_QUERY: 프롬프트 데이터를 제공하는 쿼리
  • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값. 이 값은 [1,1024] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 128입니다.
  • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값. 기본값은 0입니다.

    temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

  • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 40입니다.
  • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 TOP_K가 결정한 풀에서 선택할 토큰을 결정하도록 도와줍니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.
  • FLATTEN_JSON: 생성된 텍스트 및 보안 특성을 개별 열로 반환할지 여부를 결정하는 BOOL 값. 기본값은 FALSE입니다.
  • STOP_SEQUENCES: 지정한 문자열이 모델의 응답에 포함된 경우 이 문자열을 제거하는 ARRAY<STRING> 값. 문자열은 대문자 사용을 비롯해 정확히 일치합니다. 기본값은 빈 배열입니다.

예시 1

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • articles 테이블의 body 열에 있는 텍스트 요약을 요청하는 프롬프트입니다.
  • 적당히 길고 가능성이 높은 응답을 반환합니다.
  • 생성된 텍스트와 보안 특성을 별도의 열에 반환합니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p,
      15 AS top_k, TRUE AS flatten_json_output));

예시 2

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • 쿼리를 사용하여 테이블 열에 프롬프트 프리픽스를 제공하는 문자열을 연결하여 프롬프트 데이터를 만듭니다.
  • 다소 가능성이 있는 짧은 응답을 반환합니다.
  • 생성된 텍스트와 안전 속성이 별도의 열에 반환되지 않습니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      30 AS top_k, FALSE AS flatten_json_output));

text-bison32

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • PROMPT_QUERY: 프롬프트 데이터를 제공하는 쿼리
  • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값. 이 값은 [1,8192] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 128입니다.
  • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값. 기본값은 0입니다.

    temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

  • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 40입니다.
  • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 TOP_K가 결정한 풀에서 선택할 토큰을 결정하도록 도와줍니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.
  • FLATTEN_JSON: 생성된 텍스트 및 보안 특성을 개별 열로 반환할지 여부를 결정하는 BOOL 값. 기본값은 FALSE입니다.
  • STOP_SEQUENCES: 지정한 문자열이 모델의 응답에 포함된 경우 이 문자열을 제거하는 ARRAY<STRING> 값. 문자열은 대문자 사용을 비롯해 정확히 일치합니다. 기본값은 빈 배열입니다.

예시 1

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • articles 테이블의 body 열에 있는 텍스트 요약을 요청하는 프롬프트입니다.
  • 적당히 길고 가능성이 높은 응답을 반환합니다.
  • 생성된 텍스트와 보안 특성을 별도의 열에 반환합니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p,
      15 AS top_k, TRUE AS flatten_json_output));

예시 2

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • 쿼리를 사용하여 테이블 열에 프롬프트 프리픽스를 제공하는 문자열을 연결하여 프롬프트 데이터를 만듭니다.
  • 다소 가능성이 있는 짧은 응답을 반환합니다.
  • 생성된 텍스트와 안전 속성이 별도의 열에 반환되지 않습니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      30 AS top_k, FALSE AS flatten_json_output));

text-unicorn

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  (PROMPT_QUERY),
  STRUCT(TOKENS AS max_output_tokens, TEMPERATURE AS temperature,
  TOP_K AS top_k, TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • PROMPT_QUERY: 프롬프트 데이터를 제공하는 쿼리
  • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값. 이 값은 [1,1024] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 128입니다.
  • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값. 기본값은 0입니다.

    temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

  • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 40입니다.
  • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 TOP_K가 결정한 풀에서 선택할 토큰을 결정하도록 도와줍니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.
  • FLATTEN_JSON: 생성된 텍스트 및 보안 특성을 개별 열로 반환할지 여부를 결정하는 BOOL 값. 기본값은 FALSE입니다.
  • STOP_SEQUENCES: 지정한 문자열이 모델의 응답에 포함된 경우 이 문자열을 제거하는 ARRAY<STRING> 값. 문자열은 대문자 사용을 비롯해 정확히 일치합니다. 기본값은 빈 배열입니다.

예시 1

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • articles 테이블의 body 열에 있는 텍스트 요약을 요청하는 프롬프트입니다.
  • 적당히 길고 가능성이 높은 응답을 반환합니다.
  • 생성된 텍스트와 보안 특성을 별도의 열에 반환합니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT('Summarize this text', body) AS prompt
      FROM mydataset.articles
    ),
    STRUCT(
      0.2 AS temperature, 650 AS max_output_tokens, 0.2 AS top_p,
      15 AS top_k, TRUE AS flatten_json_output));

예시 2

다음 예시는 이러한 특성이 포함된 요청을 보여줍니다.

  • 쿼리를 사용하여 테이블 열에 프롬프트 프리픽스를 제공하는 문자열을 연결하여 프롬프트 데이터를 만듭니다.
  • 다소 가능성이 있는 짧은 응답을 반환합니다.
  • 생성된 텍스트와 안전 속성이 별도의 열에 반환되지 않습니다.
SELECT *
FROM
  ML.GENERATE_TEXT(
    MODEL `mydataset.llm_model`,
    (
      SELECT CONCAT(question, 'Text:', description, 'Category') AS prompt
      FROM mydataset.input_table
    ),
    STRUCT(
      0.4 AS temperature, 100 AS max_output_tokens, 0.5 AS top_p,
      30 AS top_k, FALSE AS flatten_json_output));

시각적 콘텐츠를 설명하는 텍스트 생성

gemini-pro-vision 멀티모달 모델을 기반으로 하는 원격 모델과 함께 ML.GENERATE_TEXT 함수를 사용하여 텍스트를 생성합니다.

SELECT *
FROM ML.GENERATE_TEXT(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE PROJECT_ID.DATASET_ID.TABLE_NAME,
  STRUCT(PROMPT AS prompt, TOKENS AS max_output_tokens,
  TEMPERATURE AS temperature, TOP_K AS top_k,
  TOP_P AS top_p, FLATTEN_JSON AS flatten_json_output,
  STOP_SEQUENCES AS stop_sequences)
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • TABLE_NAME: 분석할 시각적 콘텐츠를 포함하는 객체 테이블의 이름입니다. 분석할 수 있는 시각적 콘텐츠 유형에 대한 자세한 내용은 지원되는 시각적 콘텐츠를 참조하세요.

    객체 테이블에 사용되는 Cloud Storage 버킷은 모델을 만들고 ML.GENERATE_TEXT 함수를 호출하는 동일한 프로젝트에 있어야 합니다.

  • PROMPT: 시각적 콘텐츠를 분석하는 데 사용할 프롬프트입니다.
  • TOKENS: 대답에서 생성될 수 있는 토큰의 최대 개수를 설정하는 INT64 값입니다. 이 값은 [1,2048] 범위 내에 있어야 합니다. 짧은 응답이 필요하면 낮은 값을 지정하고 긴 응답을 위해서는 높은 값을 지정합니다. 기본값은 2048입니다.
  • TEMPERATURE: 토큰 선택에서 무작위성 수준을 제어하는 [0.0,1.0] 범위의 FLOAT64 값입니다. 기본값은 0.4입니다.

    temperature 값이 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 확정적인 응답이 필요한 프롬프트에 적합하고, temperature 값이 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. temperature 값이 0이면 확정적입니다. 즉, 확률이 가장 높은 응답이 항상 선택됩니다.

  • TOP_K: 모델이 선택에 고려해야 하는 토큰의 초기 풀을 결정하는 [1,40] 범위의 INT64 값입니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 32입니다.
  • TOP_P: [0.0,1.0] 범위의 FLOAT64 값은 TOP_K가 결정한 풀에서 선택할 토큰을 결정하도록 도와줍니다. 임의성이 낮은 응답을 위해서는 낮은 값을 지정하고 임의성이 높은 응답을 위해서는 높은 값을 지정합니다. 기본값은 0.95입니다.
  • FLATTEN_JSON: 생성된 텍스트 및 보안 특성을 개별 열로 반환할지 여부를 결정하는 BOOL 값입니다. 기본값은 FALSE입니다.
  • STOP_SEQUENCES: 지정한 문자열이 모델의 응답에 포함된 경우 이 문자열을 제거하는 ARRAY<STRING> 값입니다. 문자열은 대문자 사용을 비롯해 정확히 일치합니다. 기본값은 빈 배열입니다.

예시

이 예시는 이름이 videos인 객체 테이블에서 시각적 콘텐츠를 분석하고 각 동영상의 콘텐츠를 설명합니다.

SELECT
  uri,
  ml_generate_text_llm_result
FROM
  ML.GENERATE_TEXT(
    MODEL
      `mydataset.gemini_pro_vision_model`
        TABLE `mydataset.videos`
          STRUCT('What is happening in this video?' AS PROMPT,
          TRUE AS FLATTEN_JSON_OUTPUT));