이 문서에서는 Gemini API에 대해 자주 묻는 질문(FAQ)의 답변을 다음 카테고리로 정리했습니다.
모델 비교
PaLM과 Gemini의 차이점은 무엇인가요?
Gemini 모델은 멀티모달 애플리케이션을 위해 설계되었습니다. Gemini 모델은 텍스트 및 이미지 등을 포함하는 프롬프트를 수락하고 텍스트 응답을 반환합니다. Gemini는 또한 함수 호출을 지원하므로 개발자가 함수에 대한 설명을 전달한 후 해당 모델에서 설명과 가장 일치하는 함수 및 매개변수를 반환하도록 해줍니다. 그런 다음 개발자는 외부 API 및 서비스에서 해당 함수를 호출할 수 있습니다.
PaLM2 모델은 정식 버전(GA)입니다. PaLM 2 모델은 언어 애플리케이션용으로 설계되었으며 텍스트 요약, 텍스트 생성과 같은 사용 사례에서 우수한 성능을 발휘합니다. PaLM 2는 또한 Gemini에서 사용할 수 없는 자동 측면 비교 및 모델 모니터링 등 Vertex AI에서 MLOps 서비스에 대한 완전한 지원을 제공합니다.
Vertex AI Studio를 사용하면 전체 데이터 컨트롤을 통해 Gemini 및 PaLM 2 모델을 맞춤설정하고 Google Cloud의 보안, 안전, 개인 정보 보호, 데이터 거버넌스 및 규정 준수 지원을 활용할 수 있습니다. Gemini와 PaLM 2 모두에 대한 프롬프트 및 조정 데이터는 기반 모델을 학습시키거나 개선하는 데 사용되지 않습니다.
Gemini 대신 PaLM을 선택하는 이유는 무엇인가요?
텍스트 입력-출력(텍스트 요약, 텍스트 생성, Q&A 등)만 필요한 사용 사례의 경우 PaLM 2 모델은 충분히 높은 품질의 응답을 제공할 수 있습니다.
Gemini 모델은 멀티모달 입력을 포함하거나 함수 호출이 필요하거나 복잡한 프롬프트(예: 연쇄 사고 및 복잡한 안내 수행)가 필요한 사용 사례에 적합합니다.
PaLM 2 지원이 중단되나요?
PaLM 2 지원 중단 계획이 없습니다.
Vision 사용 사례에서 Vertex AI의 Imagen과 Gemini API의 차이점은 무엇인가요?
Imagen은 이미지 생성, 수정, 자막, Q&A 사용 사례에 대한 비전 모델입니다. Gemini는 프롬프트의 일부로 여러 이미지 또는 동영상을 사용하여 입력에 대한 답변을 제공할 수 있습니다. 여기서 Image는 하나의 입력 이미지만 선택할 수 있습니다. Gemini는 이미지 생성이나 이미지 수정을 지원하지 않습니다.
사용 사례 코딩에서 Vertex AI Codey API와 Gemini API의 차이점은 무엇인가요?
Codey API는 코드 생성, 코드 완성, 코드 채팅을 위해 빌드되었습니다. Codey API는 Gemini를 비롯한 Google에서 개발한 다른 모델을 기반으로 합니다. IDE, CI/CD 워크플로, 대시보드, 기타 애플리케이션에 통합하여 소프트웨어 개발 수명 주기 전반에서 API를 사용할 수 있습니다. 코드베이스를 사용하여 모델을 맞춤설정할 수도 있습니다. 코드 생성에 Gemini 1.0 Pro Vision을 사용하지 않는 것이 좋습니다.
Gemini 1.0 Pro 또는 Gemini 1.0 Pro Vision 모델에 프롬프트를 보내려면 어떻게 해야 하나요?
Gemini API에 요청을 보내는 데 사용할 수 있는 방법은 다양합니다. 예를 들어 Google Cloud 콘솔, 프로그래밍 언어 SDK 또는 REST API를 사용하여 gemini-1.0-pro
(Gemini 1.0 Pro) 또는 gemini-1.0-pro-vision
(Gemini 1.0 Pro Vision)에 요청을 보낼 수 있습니다.
시작하려면 Gemini API 시도해 보기를 참조하세요.
Gemini에서 미세 조정이 가능할까요?
Gemini 1.0 Pro(gemini-1.0-pro-002
)의 안정화 버전 중 002 버전을 미세 조정할 수 있습니다. 자세한 내용은 Gemini를 위한 모델 조정 개요를 참조하세요.
안전 및 데이터 사용량
내 응답이 차단되는 이유는 무엇인가요?
Vertex AI의 생성형 AI는 안전 필터를 사용하여 잠재적으로 유해한 응답을 방지합니다. 이 안전 필터 기준을 조정할 수 있습니다. 자세한 내용은 책임감 있는 AI를 참조하세요.
입력 데이터는 어떻게 사용되나요?
Google은 팀에서 Google Cloud가 제품 개발에 사용하는 데이터에 대한 검토를 포함하여 업무팀이 강력한 데이터 거버넌스 규정을 통해 다음 AI/ML 개인 정보 보호를 준수하도록 보장합니다. 자세한 내용은 생성형 AI 및 데이터 거버넌스를 참조하세요.
내 데이터가 캐시되나요?
Google은 Gemini 모델에 대한 고객의 입력과 출력을 캐시하여 고객의 후속 프롬프트에 대한 응답을 가속화할 수 있습니다. 캐시된 콘텐츠는 최대 24시간 동안 저장됩니다. 기본적으로 데이터 캐싱은 각 Google Cloud 프로젝트에 대해 사용 설정됩니다. Google Cloud 프로젝트의 동일한 캐시 설정이 모든 리전에 적용됩니다. 다음 curl 명령어를 사용하여 캐싱 상태를 확인하거나 캐싱을 중지하거나 캐싱을 다시 사용 설정할 수 있습니다. 자세한 내용은 생성형 AI 및 데이터 거버넌스 페이지의 예측을 참조하세요. 캐싱을 중지하거나 다시 사용 설정하면 변경사항이 모든 Google Cloud 리전에 적용됩니다. Identity and Access Management를 사용하여 캐싱을 사용 설정하거나 중지하는 데 필요한 권한을 부여하는 방법에 대한 자세한 내용은 IAM을 사용한 Vertex AI 액세스 제어를 참조하세요. 다음 섹션을 확장하여 현재 캐시 설정을 가져오고, 캐싱을 사용 중지 및 사용 설정하는 방법을 알아보세요.
현재 캐싱 설정 확인
다음 명령어를 실행하여 프로젝트에서 캐싱이 사용 설정 또는 중지되었는지 확인합니다. 이 명령어를 실행하려면 사용자에게 roles/aiplatform.viewer
, roles/aiplatform.user
, roles/aiplatform.admin
역할 중 하나가 부여되어 있어야 합니다.
PROJECT_ID=PROJECT_ID # Setup project_id $ gcloud config set project PROJECT_ID # GetCacheConfig $ curl -X GET -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig # Response if caching is enabled (caching is enabled by default). { "name": "projects/PROJECT_ID/cacheConfig" } # Response if caching is disabled. { "name": "projects/PROJECT_ID/cacheConfig" "disableCache": true }
캐싱 사용 중지
다음 curl 명령어를 실행하여 Google Cloud 프로젝트에 캐싱을 사용 설정합니다. 이 명령어를 실행하려면 사용자에게 Vertex AI 관리자 역할 roles/aiplatform.admin
이 부여되어 있어야 합니다.
PROJECT_ID=PROJECT_ID # Setup project_id $ gcloud config set project PROJECT_ID # Setup project_id. $ gcloud config set project ${PROJECT_ID} # Opt-out of caching. $ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{ "name": "projects/PROJECT_ID/cacheConfig", "disableCache": true }' # Response. { "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_ID}", "done": true, "response": { "@type": "type.googleapis.com/google.protobuf.Empty" } }
캐싱 사용 설정
Google Cloud 프로젝트에서 캐싱을 중지한 후 다시 사용 설정하려면 다음 curl 명령어를 실행합니다. 이 명령어를 실행하려면 사용자에게 Vertex AI 관리자 역할 roles/aiplatform.admin
이 부여되어 있어야 합니다.
PROJECT_ID=PROJECT_ID LOCATION_ID="us-central1" # Setup project_id $ gcloud config set project PROJECT_ID # Setup project_id. $ gcloud config set project ${PROJECT_ID} # Opt in to caching. $ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{ "name": "projects/PROJECT_ID/cacheConfig", "disableCache": false }' # Response. { "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_NUMBER}", "done": true, "response": { "@type": "type.googleapis.com/google.protobuf.Empty" } }
마이그레이션
Google AI Studio에서 Gemini를 Vertex AI Studio로 마이그레이션하려면 어떻게 해야 하나요?
Google Cloud의 Vertex AI 플랫폼으로 마이그레이션하면 효율성과 안정성을 위해 AI 모델의 사용, 배포, 모니터링을 간소화하는 MLOps 도구 모음을 제공합니다. Vertex AI로 작업을 마이그레이션하려면 기존 데이터를 Vertex AI Studio로 가져와 업로드하고 Vertex AI Gemini API를 사용합니다. 자세한 내용은 Google AI 기반 Gemini에서 Vertex AI로 마이그레이션을 참조하세요.
기본 모델을 PaLM2에서 Vertex AI Gemini API로 전환하려면 어떻게 해야 하나요?
PaLM 모델에서 Gemini 모델로 전환할 때는 애플리케이션에 대한 주요 아키텍처를 변경할 필요가 없습니다. API 관점에서 한 모델에서 다른 모델로 전환하려면 코드 한 줄을 변경하거나 SDK를 업데이트해야 합니다. 자세한 내용은 PaLM API에서 Vertex AI Gemini API로 마이그레이션을 참조하세요.
모델마다 응답이 다를 수 있으므로 PaLM과 Gemini 모델의 응답을 비교하여 응답이 기대에 부합하는지 확인하는 프롬프트 테스트를 수행하는 것이 좋습니다.
사용 가능 여부 및 가격 책정
Gemini는 어느 위치에서 사용할 수 있나요?
Gemini 1.0 Pro 및 Gemini 1.0 Pro Vision은 아시아, 미국, 유럽 리전에서 사용할 수 있습니다. 자세한 내용은 Vertex AI의 생성형 AI 위치를 참조하세요.
Vertex AI Gemini API에 무료 평가 등급이 있나요?
자세한 내용은 Google Cloud 담당자에게 문의하세요.
Vertex AI Gemini API의 가격은 어떻게 책정되나요?
Gemini 모델에 대한 가격 책정 정보는 Vertex AI의 생성형 AI 가격 책정의 멀티모달 섹션에서 확인할 수 있습니다.
Gemini Ultra에 액세스하려면 어떻게 해야 하나요?
Google 계정 담당자에게 문의하여 액세스 권한을 요청하세요.
할당량
API 요청을 보낼 때 할당량(429) 오류를 어떻게 해결하나요?
과도한 수요가 있거나 요청이 프로젝트당 할당량을 초과하는 경우에 발생하는 오류입니다. 요청 비율이 프로젝트 할당량보다 낮은지 확인합니다. 프로젝트 할당량을 보려면 Google Cloud 콘솔의 할당량 페이지로 이동합니다. 자세한 내용은 Vertex AI의 Vertex AI 기반 생성형 AI 할당량 및 한도를 참조하세요.
Gemini에 대한 프로젝트 할당량을 늘리려면 어떻게 해야 하나요?
Google Cloud 콘솔에서 상향 조정을 요청할 수 있습니다. 자세한 내용은 Vertex AI의 Vertex AI 기반 생성형 AI 할당량 및 한도를 참조하세요.