제대로 작동하는 프롬프트를 설계하려면 여러 버전의 프롬프트를 테스트하고 프롬프트 매개변수로 실험하여 최적의 응답을 가져오는 요소를 결정합니다. Codey API와 Google Cloud 콘솔에서 Vertex AI Studio를 사용하여 프로그래매틱 방식으로 프롬프트를 테스트할 수 있습니다.
코드 생성 프롬프트 테스트
코드 생성 프롬프트를 테스트하려면 다음 방법 중 하나를 선택합니다.
REST
Vertex AI API를 사용하여 코드 생성 프롬프트를 테스트하려면 게시자 모델 엔드포인트에 POST 요청을 보냅니다.
요청 데이터를 사용하기 전에 다음을 바꿉니다.
- PROJECT_ID: 프로젝트 ID
- PREFIX: 코드 모델에서
prefix
는 생성할 코드를 설명하는 의미 있는 프로그래밍 코드 조각 또는 자연어 프롬프트의 시작 부분을 나타냅니다. - TEMPERATURE:
강도는 응답 생성 중 샘플링에 사용됩니다. 강도는 토큰 선택의 무작위성 수준을 제어합니다. 강도가 낮을수록 자유롭거나 창의적인 답변과 거리가 먼 응답이 필요한 프롬프트에 적합하고, 강도가 높을수록 보다 다양하거나 창의적인 결과로 이어질 수 있습니다. 강도가
0
이면 확률이 가장 높은 토큰이 항상 선택됩니다. 이 경우 특정 프롬프트에 대한 응답은 대부분 확정적이지만 여전히 약간의 변형이 가능합니다. - MAX_OUTPUT_TOKENS: 응답에서 생성될 수 있는 토큰의 최대 개수입니다. 토큰은 약 4자(영문 기준)입니다. 토큰 100개는 단어 약 60~80개에 해당합니다.
응답이 짧을수록 낮은 값을 지정하고 잠재적으로 응답이 길면 높은 값을 지정합니다.
- CANDIDATE_COUNT: 반환할 응답 변형의 개수입니다. 각 요청에 대해 모든 후보의 출력 토큰이 청구되지만 입력 토큰은 한 번만 청구됩니다.
여러 후보 지정은
generateContent
에서 작동하는 미리보기 기능입니다(streamGenerateContent
는 지원되지 않음). 지원되는 모델은 다음과 같습니다.- Gemini 1.5 Flash:
1
-8
, 기본값:1
- Gemini 1.5 Pro:
1
-8
, 기본값:1
- Gemini 1.0 Pro:
1
-8
, 기본값:1
int
입니다. - Gemini 1.5 Flash:
HTTP 메서드 및 URL:
POST https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict
JSON 요청 본문:
{ "instances": [ { "prefix": "PREFIX" } ], "parameters": { "temperature": TEMPERATURE, "maxOutputTokens": MAX_OUTPUT_TOKENS, "candidateCount": CANDIDATE_COUNT } }
요청을 보내려면 다음 옵션 중 하나를 선택합니다.
curl
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict"
PowerShell
요청 본문을 request.json
파일에 저장하고 다음 명령어를 실행합니다.
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/us-central1/publishers/google/models/code-bison:predict" | Select-Object -Expand Content
다음과 비슷한 JSON 응답이 수신됩니다.
Python
Vertex AI SDK for Python을 설치하거나 업데이트하는 방법은 Vertex AI SDK for Python 설치를 참조하세요. 자세한 내용은 Python API 참고 문서를 확인하세요.
Node.js
이 샘플을 사용해 보기 전에 Vertex AI 빠른 시작: 클라이언트 라이브러리 사용의 Node.js 설정 안내를 따르세요. 자세한 내용은 Vertex AI Node.js API 참고 문서를 참조하세요.
Vertex AI에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
Java
이 샘플을 사용해 보기 전에 Vertex AI 빠른 시작: 클라이언트 라이브러리 사용의 Java 설정 안내를 따르세요. 자세한 내용은 Vertex AI Java API 참고 문서를 참조하세요.
Vertex AI에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
콘솔
Google Cloud 콘솔에서 Vertex AI Studio를 사용하여 코드 생성 프롬프트를 테스트하려면 다음을 수행합니다.
- Google Cloud 콘솔의 Vertex AI 섹션에서 Vertex AI Studio로 이동합니다.
- 시작하기를 클릭합니다.
- 프롬프트 만들기를 클릭합니다.
- 모델에서
code-bison
으로 시작하는 이름의 모델을 선택합니다.code-bison
다음의 3자릿수 숫자는 모델의 버전 번호를 나타냅니다. 예를 들어code-bison@002
은 코드 생성 모델 버전 1의 이름입니다. - 프롬프트에 코드 생성 프롬프트를 입력합니다.
- 강도 및 토큰 제한을 조정하여 응답에 미치는 영향을 실험합니다. 자세한 내용은 코드 생성 모델 매개변수를 참조하세요.
- 제출을 클릭하여 응답을 생성합니다.
- 프롬프트를 저장하려면 저장을 클릭합니다.
- 코드 보기를 클릭하여 프롬프트에 대한 Python 코드 또는 curl 명령어를 확인합니다.
curl 명령어 예시
MODEL_ID="code-bison"
PROJECT_ID=PROJECT_ID
curl \
-X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
https://us-central1-aiplatform.googleapis.com/v1/projects/${PROJECT_ID}/locations/us-central1/publishers/google/models/${MODEL_ID}:predict -d \
$"{
'instances': [
{ 'prefix': 'Write a function that checks if a year is a leap year.' }
],
'parameters': {
'temperature': 0.2,
'maxOutputTokens': 1024,
'candidateCount': 1
}
}"
코드 생성을 위한 프롬프트 설계에 대한 자세한 내용은 코드 생성을 위한 프롬프트 만들기를 참조하세요.
코드 모델의 응답 스트리밍
REST API를 사용하여 샘플 코드 요청 및 응답을 보려면 스트리밍 REST API 사용 예시를 참조하세요.
Vertex AI SDK for Python을 사용하여 샘플 코드 요청 및 응답을 보려면 스트리밍을 위한 Vertex AI SDK for Python 사용 예시를 참조하세요.
다음 단계
- 코드 채팅 프롬프트 만들기 방법 알아보기
- 코드 완성 프롬프트 만들기 방법 알아보기
- 책임감 있는 AI 권장사항 및 Vertex AI 안전 필터 알아보기