Spanner Vertex AI 통합 개요

이 페이지에서는 Spanner Vertex AI 통합에 대해 간략히 설명합니다.

Spanner Vertex AI 통합을 사용하면 GoogleSQL 인터페이스를 통해 Vertex AI에서 호스팅되는 분류자 및 회귀 ML 모델에 액세스할 수 있습니다. 이를 통해 ML 예측 제공 기능을 DQL/DML 쿼리를 사용하여 수행되는 일반적인 Spanner 데이터 액세스 작업과 원활하게 통합할 수 있습니다.

Spanner Vertex AI 통합은 BigQuery ML 구문의 하위 집합만 지원되지만 BigQuery ML과 동일한 SQL 구문을 공유합니다.

Spanner Vertex AI 통합의 이점

Spanner Vertex AI 통합을 사용하여 ML 예측을 생성하면 Spanner 데이터 액세스와 Vertex AI 예측 엔드포인트에 대한 액세스가 개별적으로 수행되는 방법에 비해 여러 가지 이점이 있습니다.

  • 성과:
    • 지연 시간 개선: Vertex AI 서비스와 통신하는 Spanner Vertex AI 통합은 Spanner의 클라이언트를 실행하는 컴퓨팅 노드와 Vertex AI 서비스 간의 추가적인 왕복을 없애줍니다.
    • 처리량/동시 처리 향상: Spanner Vertex AI 통합은 Spanner의 분산형 쿼리 처리 인프라를 기반으로 실행되므로, 동시 로드가 높은 쿼리 실행을 지원합니다.
  • 사용자 환경:
    • 간단하고 일관되며 친숙한 단일 SQL 인터페이스를 사용하여 Spanner 확장 수준에서 데이터 변환 및 ML 제공 시나리오를 모두 용이하게 하면 ML 진입 장벽이 낮아지고 훨씬 더 원활한 사용자 경험을 제공할 수 있습니다.
  • 비용:
    • Spanner Vertex AI 통합은 Spanner 컴퓨팅 용량을 사용하여 ML 계산 및 SQL 쿼리 실행 결과를 병합합니다. 따라서 이에 대한 추가 컴퓨팅(예: Compute Engine 또는 Google Kubernetes Engine에서)을 프로비저닝할 필요가 없습니다.

Spanner Vertex AI 통합은 어떻게 작동하나요?

Spanner Vertex AI 통합은 ML 모델을 호스팅하지 않는 대신 Vertex AI 서비스 인프라를 사용합니다. Spanner Vertex AI 통합에 사용할 모델을 사용하려면 이미 Vertex AI에 학습시키고 배포했어야 합니다.

Spanner Vertex AI 통합은 특별한 ML 학습 기능도 제공하지 않습니다. Spanner에 저장된 데이터로 모델을 학습시키려면 다음 중 하나를 사용하면 됩니다.

모델이 Vertex AI 서비스에 배포되면 데이터베이스 소유자가 CREATE MODEL DDL 문을 사용하여 이 모델을 등록할 수 있습니다. 그런 다음 ML.PREDICT 함수에서 모델을 참조하여 예측을 생성할 수 있습니다.

Spanner Vertex AI 통합 사용에 대한 튜토리얼은 SQL을 사용하여 ML 예측 생성을 참조하세요.

가격 책정

Spanner에서 Spanner Vertex AI 통합 사용에 대한 추가 요금이 청구되지 않습니다. 하지만 이 기능과 관련된 다른 요금이 발생할 가능성이 있습니다.

  • Vertex AI 온라인 예측에는 표준 요금이 청구됩니다. 총 요금은 사용하는 모델 유형에 따라 다릅니다. 일부 모델 유형은 사용하는 머신 유형 및 노드 수에 따라 시간당 고정 요금이 적용됩니다. 일부 모델 유형에는 호출당 요금이 적용됩니다. 후자는 명시적인 예측 할당량을 설정한 전용 프로젝트에 배포하는 것이 좋습니다.

  • Spanner와 Vertex AI 간 데이터 전송에 대한 표준 요금을 지불합니다. 총 요금은 쿼리를 실행하는 서버를 호스팅하는 리전과 호출된 엔드포인트를 호스팅하는 리전에 따라 다릅니다. 요금을 최소화하려면 Vertex AI 엔드포인트를 Spanner 인스턴스와 동일한 리전에 배포합니다. 멀티 리전 인스턴스 구성 또는 여러 Vertex AI 엔드포인트를 사용하는 경우 엔드포인트를 동일한 대륙에 배포합니다.

SLA

Vertex AI 온라인 예측 가용성이 낮아서 Spanner Vertex AI 통합을 사용하는 동안 Spanner의 고가용성을 유지하도록 Spanner ML 모델을 올바르게 구성해야 합니다.

  1. Spanner ML 모델은 백엔드에서 여러 Vertex AI 엔드포인트를 사용하여 장애 조치를 사용 설정해야 합니다.
  2. Vertex AI 엔드포인트는 Vertex AI SLA를 준수해야 합니다.
  3. Vertex AI 엔드포인트는 수신 트래픽을 처리하기에 충분한 용량을 프로비저닝해야 합니다.
  4. Vertex AI 엔드포인트는 리전 서비스 중단을 방지하기 위해 Spanner 데이터베이스와 가까운 별도의 리전을 사용해야 합니다.
  5. Vertex AI 엔드포인트는 프로젝트별 예측 할당량 문제를 방지하기 위해 별도의 프로젝트를 사용해야 합니다.

중복 Vertex AI 엔드포인트 수는 SLA와 Spanner 쿼리의 행 수에 따라 다릅니다.

Spanner SLA Vertex AI SLA 행 1개 행 10개 행 100개 행 1000개
99.99% 99.9% 2 2 2 3
99.99% 99.5% 2 3 3 4
99.999% 99.9% 2 2 3 3
99.999% 99.5% 3 3 4 4

Vertex AI 엔드포인트는 정확히 동일한 모델을 호스팅하지 않아도 됩니다. 첫 번째 엔드포인트로 복잡하고 컴퓨팅 집약적인 기본 모델을 포함하도록 Spanner ML 모델을 구성하는 것이 좋습니다. 후속 장애 조치 엔드포인트는 컴퓨팅 집약도가 낮은 간소화된 모델을 가리켜서 확장성을 높이고 트래픽 급증에 대처할 수 있습니다.

규정 준수

Assured Workloads는 Vertex AI Prediction API를 지원하지 않습니다. 리소스 사용량 제한 제약조건을 사용 설정하면 Vertex AI API가 사용 중지되고 그에 따라 Spanner Vertex AI 통합 기능도 사용 중지됩니다.

또한 프로덕션 데이터베이스에서 규정 준수가 적절히 구성되지 않은 비프로덕션 프로젝트의 Vertex AI 엔드포인트에 연결할 수 없도록 VPC 서비스 제어 경계를 만드는 것이 좋습니다.