데이터 분석

Last reviewed 2023-08-08 UTC

Google Cloud 아키텍처 프레임워크의 이 문서에서는 Google Cloud 데이터 분석과 관련된 핵심 원칙과 권장사항을 설명합니다. 주요 데이터 분석 서비스 몇 가지와 이 서비스가 데이터 수명 주기의 여러 단계에서 어떻게 도움이 되는지 알아보세요. 이러한 권장사항은 데이터 분석 요구사항을 충족하고 시스템 설계를 만드는 데 도움이 됩니다.

핵심 원칙

기업은 데이터를 분석하고 데이터에서 활용 가능한 분석 정보를 생성하려고 합니다. Google Cloud는 데이터 수집부터 보고서 및 시각화에 이르기까지 전체 데이터 수명 주기를 지원하는 다양한 서비스를 제공합니다. 이러한 서비스는 대부분 완전 관리형이며, 일부는 서버리스입니다. 또한 Compute Engine VM에서 자체 Apache Hadoop 또는 Beam 호스팅과 같은 데이터 분석 환경을 빌드하고 관리할 수 있습니다.

특정 관심 분야, 팀 전문성, 전략적 관점을 통해 데이터 분석 요구사항을 지원하는 데 채택할 Google Cloud 서비스를 결정할 수 있습니다. 예를 들어 Dataflow를 사용하면 서버리스 방식으로 복잡한 변환을 작성할 수 있지만 컴퓨팅 및 처리 요구사항을 위해서는 독단적인 구성 버전을 사용해야 합니다. 또는 Dataproc을 사용하여 동일한 변환을 실행할 수 있지만 클러스터를 관리하고 작업을 직접 세부 조정해야 합니다.

시스템 설계에서 추출, 변환, 로드(ETL) 또는 추출, 로드, 변환(ELT)과 같이 팀에서 사용하는 처리 전략을 고려하세요. 또한 시스템 설계 시 일괄 분석 또는 스트리밍 분석이 필요한지 여부를 고려해야 합니다. Google Cloud는 통합 데이터 플랫폼을 제공하며 이를 통해 비즈니스 요구를 충족하는 데이터 레이크 또는 데이터 웨어하우스를 구축할 수 있습니다.

주요 서비스

다음 표에서는 Google Cloud 분석 서비스의 대략적인 개요를 보여줍니다.

Google Cloud 서비스 설명
Pub/Sub 스트림 분석 및 이벤트 기반 컴퓨팅 시스템에 사용되는 간단하고도 안정적인 확장형 기반 서비스입니다.
Dataflow 스트림(실시간) 및 일괄(기록) 모드에서 데이터를 변환하고 강화하는 완전 관리형 서비스입니다.
Trifacta 제공 Dataprep 분석을 위해 구조화된 데이터와 구조화되지 않은 데이터를 시각적으로 탐색, 정리, 준비하는 지능형 데이터 서비스입니다.
Dataproc Apache Spark 및 Apache Hadoop 클러스터를 실행하는 빠르고 사용하기 쉬운 완전 관리형 클라우드 서비스입니다.
Cloud Data Fusion 클라우드용으로 빌드된 완전 관리형 데이터 통합 서비스로, ETL/ELT 데이터 파이프라인을 구축하고 관리할 수 있습니다. Cloud DataFusion은 사전 구성된 커넥터 및 변환 기능이 담긴 광범위한 오픈소스 라이브러리와 그래픽 인터페이스를 제공합니다.
BigQuery 스토리지 및 컴퓨팅 요구 수준에 맞춰 확장 가능한 완전 관리형 저비용 서버리스 데이터 웨어하우스입니다. BigQuery는 테라바이트에서 페타바이트 단위에 이르는 데이터를 분석할 수 있는 열 형식의 ANSI SQL 데이터베이스입니다.
Cloud Composer 클라우드 및 온프레미스 데이터 센터 전체의 파이프라인을 작성, 예약, 모니터링할 수 있는 완전 관리형 워크플로 조정 서비스입니다.
Data Catalog 모든 데이터를 검색, 관리, 이해하는 데 도움이 되는 확장 가능한 완전 관리형 메타데이터 관리 서비스입니다.
Looker Studio 대화형 대시보드를 통해 데이터에서 유용한 정보를 얻는 데 도움이 되는 완전 관리형 시각적 분석 서비스입니다.
Looker 멀티 클라우드 환경에서 데이터를 연결, 분석, 시각화하는 엔터프라이즈 플랫폼입니다.
Dataform 데이터 파이프라인을 공동작업, 생성, 배포하고 데이터 품질을 보장하는 데 도움이 되는 완전 관리형 제품입니다.
Dataplex 일관된 제어를 통해 여러 데이터 레이크, 데이터 웨어하우스, 데이터 마트의 데이터를 중앙에서 관리, 모니터링, 통제하는 관리형 데이터 레이크 서비스입니다.
AnalyticsHub 조직 전체에서 데이터 분석 애셋을 효율적이고 안전하게 교환하여 데이터 안정성 및 비용 문제를 해결하는 플랫폼입니다.

데이터 수명 주기

시스템을 설계할 때 모든 시스템의 일반적인 데이터 이동 또는 데이터 수명 주기를 중심으로 Google Cloud 데이터 분석 서비스를 그룹화할 수 있습니다.

데이터 수명 주기에는 다음과 같은 단계 및 서비스(예시)가 포함됩니다.

다음 단계 및 서비스는 전체 데이터 수명 주기에서 실행됩니다.

  • 데이터 통합에는 Data Fusion과 같은 서비스가 포함됩니다.
  • 메타데이터 관리 및 거버넌스에는 Data Catalog와 같은 서비스가 포함됩니다.
  • 워크플로 관리에는 Cloud Composer와 같은 서비스가 포함됩니다.

데이터 수집

고유 환경에 다음 데이터 수집 권장사항을 적용합니다.

수집용 데이터 소스 결정

일반적으로 데이터는 다른 클라우드 제공업체나 서비스 또는 온프레미스 위치에서 가져옵니다.

데이터를 수집한 후 처리하는 방법을 고려합니다. 예를 들어 Storage Transfer Service는 Cloud Storage 버킷에만 데이터를 쓰고 BigQuery Data Transfer Service는 BigQuery 데이터 세트에만 데이터를 씁니다. Cloud Data Fusion은 여러 대상을 지원합니다.

스트리밍 또는 일괄 데이터 소스 식별

데이터를 사용해야 하는 방법을 고려하고 스트리밍 또는 일괄 사용 사례가 있는 위치를 파악합니다. 예를 들어 지연 시간이 짧은 글로벌 스트리밍 서비스를 실행하는 경우 Pub/Sub를 사용할 수 있습니다. 분석 및 보고용으로 데이터가 필요한 경우 BigQuery로 데이터를 스트리밍하면 됩니다.

온프레미스 또는 기타 클라우드 환경에서는 Apache Kafka와 같은 시스템에서 데이터를 스트리밍해야 하는 경우 Kafka to BigQuery Dataflow 템플릿을 사용합니다. 일괄 워크로드의 첫 번째 단계는 일반적으로 데이터를 Cloud Storage로 수집하는 것입니다. 데이터를 수집하려면 gsutil 도구 또는 Storage Transfer Service를 사용합니다.

자동화된 도구로 데이터 수집

다른 시스템에서 클라우드로 데이터를 수동으로 이동하는 것은 어려울 수 있습니다. 가능하면 데이터 수집 프로세스를 자동화하는 도구를 사용하세요. 예를 들어 Cloud Data Fusion은 드래그 앤 드롭 GUI를 사용하여 외부 소스의 데이터를 가져오는 커넥터와 플러그인을 제공합니다. 팀이 코드를 작성하려는 경우 Data Flow 또는 BigQuery가 데이터 수집을 자동화하는 데 도움이 될 수 있습니다. Pub/Sub는 로우 코드 또는 코드 우선 접근 방식 모두에 도움이 될 수 있습니다. 데이터를 스토리지 버킷으로 수집하려면 최대 1TB의 데이터 크기gsutil을 사용합니다. 1TB보다 큰 양의 데이터를 수집하려면 Storage Transfer Service를 사용합니다.

마이그레이션 도구를 사용하여 다른 데이터 웨어하우스에서 수집

Teradata, Netezza, Redshift와 같은 다른 데이터 웨어하우스 시스템에서 마이그레이션해야 하는 경우 BigQuery Data Transfer Service 마이그레이션 지원 기능을 사용할 수 있습니다. BigQuery Data Transfer Service는 외부 소스에서 일정에 따라 데이터를 수집하는 데 도움이 되는 타사 전송 기능도 제공합니다. 자세한 내용은 각 데이터 웨어하우스의 상세한 마이그레이션 접근 방식을 참조하세요.

데이터 수집 요구 예측

수집해야 하는 데이터의 볼륨은 시스템 설계에서 사용할 서비스를 결정하는 데 도움이 됩니다. 데이터의 스트리밍 수집을 위해 Pub/Sub는 초당 수십 기가바이트로 확장됩니다. 데이터의 용량, 스토리지, 리전 요구사항을 통해 Pub/Sub 라이트가 시스템 설계에 더 나은 옵션인지 결정할 수 있습니다. 자세한 내용은 Pub/Sub 또는 Pub/Sub 라이트 중 선택을 참조하세요.

데이터의 일괄 수집의 경우 총 전송 데이터 양과 전송 속도를 추정합니다. 예상 시간온라인 전송과 오프라인 전송 비교를 포함한 사용 가능한 마이그레이션 옵션을 검토합니다.

적절한 도구를 사용하여 일정에 따라 데이터를 정기적으로 수집

Storage Transfer ServiceBigQuery Data Transfer Service 모두 수집 작업을 예약할 수 있습니다. 수집 시점 또는 소스 및 대상 시스템을 세밀하게 제어하려면 Cloud Composer와 같은 워크플로 관리 시스템을 사용하세요. 보다 수동적인 방법을 원하는 경우 Cloud Scheduler 및 Pub/Sub를 사용하여 Cloud 함수를 트리거할 수 있습니다.
Compute 인프라를 관리하려면 크론과 함께 gsutil 명령어를 사용하여 최대 1TB의 데이터를 전송할 수 있습니다. Cloud Composer 대신 이 수동 방식을 사용하는 경우 프로덕션 전송 스크립팅 권장사항을 따르세요.

FTP/SFTP 서버 데이터 수집 요구사항 검토

FTP/SFTP 서버에서 데이터를 수집하는 코드 작성이 필요 없는 환경이 필요한 경우 FTP 복사 플러그인을 사용할 수 있습니다. 장기 워크플로 솔루션을 현대화하고 만들려고 할 때 사용하는 Cloud Composer는 다양한 소스 및 싱크에서 데이터를 읽고 쓸 수 있는 완전 관리형 서비스입니다.

Apache Kafka 커넥터를 사용하여 데이터 수집

Pub/Sub, Dataflow 또는 BigQuery를 사용하는 경우 Apache Kafka 커넥터 중 하나를 사용하여 데이터를 수집할 수 있습니다. 예를 들어 오픈소스 Pub/Sub Kafka 커넥터를 사용하면 Pub/Sub 또는 Pub/Sub 라이트에서 데이터를 수집할 수 있습니다.

추가 리소스

데이터 스토리지

다음 데이터 스토리지 권장사항을 자체 환경에 적용합니다.

필요에 맞는 데이터 저장소 선택

사용할 스토리지 솔루션 유형을 선택하는 데 도움이 되도록 데이터의 다운스트림 사용량을 검토하고 이해합니다. 다음과 같은 일반적인 사용 사례는 사용할 Google Cloud 제품을 권장합니다.

데이터 사용 사례 제품 추천
파일 기반 Filestore
객체 기반 Cloud Storage
짧은 지연 시간 Bigtable
시계열 Bigtable
온라인 캐시 Memorystore
트랜잭션 처리 Cloud SQL
비즈니스 인텔리전스(BI) 및 분석 BigQuery
일괄 처리 Cloud Storage

수신 데이터가 시계열이고 데이터에 대한 지연 시간이 짧은 액세스가 필요한 경우 Bigtable

SQL을 사용하는 경우 BigQuery

데이터 구조 요구 검토

문서 및 텍스트 파일, 오디오 및 동영상 파일, 로그 등 대부분의 구조화되지 않은 데이터에서는 객체 기반 저장소가 가장 적합합니다. 그런 후 필요한 경우 객체 스토리지에서 데이터를 로드하고 처리할 수 있습니다.

XML 또는 JSON과 같은 반구조화된 데이터의 경우 사용 사례 및 데이터 액세스 패턴을 통해 선택할 수 있습니다. 자동 스키마 감지를 위해 이러한 데이터세트를 BigQuery에 로드할 수 있습니다. 지연 시간 요구사항이 낮다면 Bigtable에 JSON 데이터를 로드할 수 있습니다. 기존 요구사항이 있거나 애플리케이션이 관계형 데이터베이스로 작동하는 경우 데이터 세트를 관계 저장소에 로드할 수도 있습니다.

CSV, Parquet, Avro 또는 ORC와 같은 구조화된 데이터의 경우 SQL을 사용하는 BI 및 분석 요구사항이 있으면 BigQuery를 사용할 수 있습니다. 자세한 내용은 데이터 일괄 로드 방법을 참조하세요. 개방형 표준 및 기술에 대한 데이터 레이크를 만들기 위해 Cloud Storage를 사용할 수 있습니다.

HDFS의 데이터 마이그레이션 및 비용 절감

Hadoop 분산 파일 시스템(HDFS) 데이터를 온프레미스 또는 다른 클라우드 제공업체에서 더 저렴한 객체 스토리지 시스템으로 이동하는 방법을 찾습니다. 기업이 선택하는 가장 일반적인 대체 데이터 저장소는 Cloud Storage입니다. 이 선택의 장점과 단점에 대한 자세한 내용은 HDFS와 Cloud Storage 비교를 참조하세요.

push 또는 pull 메서드를 사용하여 데이터를 이동할 수 있습니다. 두 메서드 모두 hadoop distcp 명령어를 사용합니다. 자세한 내용은 온프레미스에서 Google Cloud로 HDFS 데이터 마이그레이션을 참조하세요.

오픈소스 Cloud Storage 커넥터를 사용하여 Hadoop 및 Spark 작업이 Cloud Storage의 데이터에 액세스하도록 할 수도 있습니다. 커넥터는 기본적으로 Dataproc 클러스터에 설치되며 다른 클러스터에 수동으로 설치할 수 있습니다.

객체 스토리지를 사용하여 통합 데이터 레이크 구축

데이터 레이크는 구조화되거나 반구조화되거나 구조화되지 않은 대량의 데이터를 저장, 처리, 보호하기 위한 중앙 집중식 저장소입니다. Cloud Composer 및 Cloud Data Fusion을 사용하여 데이터 레이크를 구축할 수 있습니다.

최신 데이터 플랫폼을 빌드하기 위해 Cloud Storage 대신 BigQuery를 중앙 데이터 소스로 사용할 수 있습니다. BigQuery는 스토리지와 컴퓨팅의 분리가 있는 최신 데이터 웨어하우스입니다. BigQuery를 기반으로 구축된 데이터 레이크를 사용하면 Cloud Console의 BigQuery에서 기존의 분석을 수행할 수 있습니다. 또한 Apache Spark와 같은 다른 프레임워크에서 저장된 데이터에 액세스할 수 있습니다.

추가 리소스

데이터 처리 및 변환

데이터를 처리하고 변환할 때 자체 환경에 다음 데이터 분석 권장사항을 적용합니다.

Google Cloud에서 사용할 수 있는 오픈소스 소프트웨어 살펴보기

많은 Google Cloud 서비스가 오픈소스 소프트웨어를 사용하여 원활한 전환을 지원합니다. Google Cloud는 Open API가 있고 오픈소스 프레임워크와 호환되어 공급업체 종속을 줄이는 관리형 서버리스 솔루션을 제공합니다.

Dataproc은 운영 부담이 거의 없는 오픈소스 소프트웨어를 호스팅할 수 있는 Hadoop 호환 관리형 서비스입니다. Dataproc은 Spark, Hive, Pig, Presto, Zookeeper를 지원합니다. 또한 관리형 서비스로 Hive 메타스토어를 사용하여 Hadoop 생태계에서 단일 장애점으로 자신을 삭제합니다.

현재 Apache Beam을 일괄 및 스트리밍 처리 엔진으로 사용하는 경우 Dataflow로 마이그레이션할 수 있습니다. Dataflow는 Apache Beam을 사용하는 완전 관리형 서버리스 서비스입니다. Dataflow를 사용하여 Beam에 작업을 기록하되 Google Cloud는 실행 환경을 관리하도록 할 수 있습니다.

CDAP를 데이터 통합 플랫폼으로 사용하는 경우 완전 관리형 환경을 위해 Cloud Data Fusion으로 마이그레이션할 수 있습니다.

ETL 또는 ELT 데이터 처리 요구사항 확인

팀의 경험과 선호도는 데이터 처리 방법에 대한 시스템 설계를 결정하는 데 도움이 됩니다. Google Cloud에서는 기존 ETL 또는 최신 ELT 데이터 처리 시스템을 사용할 수 있습니다.

데이터 사용 사례에 적합한 프레임워크 사용

데이터 사용 사례에 따라 사용할 도구 및 프레임워크가 결정됩니다. 일부 Google Cloud 제품은 다음과 같은 데이터 사용 사례를 모두 처리하도록 빌드되었지만 나머지는 하나의 특정 사용 사례만 지원하는 것이 좋습니다.

  • 일괄 데이터 처리 시스템의 경우 익숙한 SQL 인터페이스를 통해 BigQuery에서 데이터를 처리하고 변환할 수 있습니다. Apache Hadoop이나 Spark 온프레미스 또는 다른 퍼블릭 클라우드에서 실행되는 기존 파이프라인이 있는 경우 Dataproc을 사용할 수 있습니다.
    • 일괄 및 스트리밍 사용 사례 모두에 통합 프로그래밍 인터페이스가 필요한 경우에는 Dataflow를 사용할 수도 있습니다. ETL에는 Dataflow를, ELT에는 BigQuery를 현대화하고 사용하는 것이 좋습니다.
  • 스트리밍 데이터 파이프라인의 경우 기간 설정, 자동 확장, 템플릿을 제공하는 Dataflow와 같은 관리형 및 서버리스 서비스를 사용합니다. 자세한 내용은 Dataflow를 사용하여 프로덕션에 즉시 사용 가능한 데이터 파이프라인 빌드를 참조하세요.

  • 시계열 분석 또는 스트리밍 동영상 분석과 같은 실시간 사용 사례에서는 Dataflow를 사용합니다.

실행 엔진에 대한 향후 제어 유지

공급업체 종속을 최소화하고 향후 다른 플랫폼을 사용할 수 있도록 하려면 관리형 서버리스 솔루션으로 Apache Beam 프로그래밍 모델Dataflow를 사용합니다. Beam 프로그래밍 모델을 사용하면 Dataflow에서 Apache Flink 또는 Apache Spark로 변경하는 등 기본 실행 엔진을 변경할 수 있습니다.

Dataflow를 사용하여 여러 소스의 데이터 수집

Pub/Sub, Cloud Storage, HDFS, S3, Kafka와 같은 여러 소스의 데이터를 수집하려면 Dataflow를 사용하세요. Dataflow는 Dataflow 템플릿을 지원하는 관리형 서버리스 서비스로 팀이 다양한 도구에서 템플릿을 실행할 수 있도록 합니다.

Dataflow Prime은 파이프라인 실행 프로세스에 사용되는 머신의 수평 및 수직 자동 확장을 제공합니다. 또한 문제를 식별하고 해결 방법을 제안하는 스마트 진단 및 권장사항을 제공합니다.

민감한 정보 검색, 식별, 보호

민감한 정보 보호를 사용하여 구조화된 데이터와 구조화되지 않은 데이터를 검사하고 변환합니다. 민감한 정보 보호는 Cloud Storage 또는 데이터베이스 등 Google Cloud 내에 위치한 데이터에 사용할 수 있습니다. 민감한 정보를 분류, 마스킹, 토큰화하여 다운스트림 처리에 안전하게 사용할 수 있습니다. 민감한 정보 보호를 사용하여 BigQuery 데이터 스캔 또는 대규모 데이터 세트에서 PII 익명화와 같은 작업을 수행합니다.

데이터 변환 프로세스 현대화

Dataform을 사용하여 데이터 변환을 코드로 작성하고 기본적으로 버전 제어 사용을 시작합니다. 또한 CI/CD, 단위 테스트, 버전 제어와 같은 소프트웨어 개발 권장사항을 SQL 코드에 채택할 수 있습니다. Dataform은 PostgreSQL과 같은 모든 주요 클라우드 데이터 웨어하우스 제품과 데이터베이스를 지원합니다.

추가 리소스

데이터 분석 및 웨어하우스

다음 데이터 분석 및 웨어하우스 권장사항을 자체 환경에 적용합니다.

데이터 스토리지 요구 검토

데이터 레이크와 데이터 웨어하우스는 상호 배타적이지 않습니다. 데이터 레이크는 구조화되지 않은 또는 반구조화된 데이터 스토리지 및 처리에 유용합니다. 데이터 웨어하우스는 분석 및 BI에 가장 적합합니다.

데이터 요구를 검토하여 데이터를 저장할 위치와 데이터를 처리 및 분석하는 가장 적합한 Google Cloud 제품을 결정합니다. BigQuery와 같은 제품은 PB 데이터를 처리하고 수요에 따라 확장할 수 있습니다.

기존 데이터 웨어하우스에서 BigQuery로 마이그레이션할 기회 포착

현재 환경에서 현재 사용 중인 기존 데이터 웨어하우스를 검토합니다. 복잡성을 줄이고 비용을 절감하려면 기존 데이터 웨어하우스를 BigQuery와 같은 Google Cloud 서비스로 마이그레이션할 기회를 찾으세요. 자세한 내용과 시나리오 예시는 BigQuery로 데이터 웨어하우스 마이그레이션을 참조하세요.

데이터에 대한 제휴 액세스 계획

데이터 요구사항 및 다른 제품 및 서비스와 상호작용하는 방법을 검토합니다. 데이터 제휴 요구를 확인하고 적절한 시스템 설계를 만듭니다.

예를 들어 BigQuery를 사용하면 Bigtable, Cloud SQL, Cloud Storage, Google Drive와 같은 다른 소스에서 데이터를 읽을 수 있는 외부 테이블을 정의할 수 있습니다. 이러한 외부 소스를 BigQuery에 저장하는 테이블과 조인할 수 있습니다.

BigQuery 가변 슬롯을 사용하여 주문형 버스트 용량 제공

많은 컴퓨팅 리소스가 필요한 실험용 또는 탐색 분석을 수행하기 위해 추가 용량이 필요한 경우가 있습니다. BigQuery를 사용하면 추가 컴퓨팅 용량을 가변 슬롯 형태로 가져올 수 있습니다. 이러한 가변 슬롯은 수요가 많은 기간이나 중요한 분석을 완료하고 싶을 때 유용합니다.

BigQuery로 마이그레이션하는 경우의 스키마 차이점 이해

BigQuery는 별표눈송이 스키마를 모두 지원하지만 기본적으로 중첩 및 반복 필드를 사용합니다. 중첩 및 반복 필드는 다른 스키마와 비교할 때 읽기 및 상관관계 지정이 더 쉽습니다. 데이터가 별표 또는 눈송이 스키마로 표시되고 BigQuery로 마이그레이션하려면 시스템 설계에서 프로세스 또는 분석에 필요한 변경사항이 있는지 검토합니다.

추가 리소스

보고서 및 시각화

고유 환경에 다음 보고 및 시각화 권장사항을 적용합니다.

BigQuery BI Engine을 사용한 데이터 시각화

BigQuery BI Engine은 신속한 인메모리 분석 서비스입니다. BI Engine을 사용하여 1초 미만의 쿼리 응답 시간과 높은 동시 실행으로 BigQuery에 저장된 데이터를 분석할 수 있습니다. BI Engine은 BigQuery API에 통합되어 있습니다. 예약된 BI Engine 용량을 사용하여 필요에 맞게 주문형 또는 정액제를 관리합니다. BI Engine은 1초 미만의 응답 시간이 필요한 다른 BI 또는 커스텀 대시보드 애플리케이션과 작동할 수 있습니다.

Looker를 사용하여 BI 프로세스 현대화

Looker는 BI, 데이터 애플리케이션, 임베디드 분석을 위한 최신 엔터프라이즈 플랫폼입니다. 데이터의 속도와 정확성으로 일관된 데이터 모델을 만들 수 있으며, 트랜잭션 및 분석 데이터 저장소 내의 데이터에 액세스할 수 있습니다. Looker는 여러 데이터베이스 및 클라우드에서 데이터를 분석할 수도 있습니다. 기존 BI 프로세스 및 도구가 있는 경우 Looker와 같은 중앙 플랫폼을 현대화하고 사용하는 것이 좋습니다.

추가 리소스

워크플로 관리 도구 사용

데이터 분석에는 다양한 프로세스와 서비스가 포함됩니다. 데이터는 데이터 분석 수명 주기 동안 여러 도구와 처리 파이프라인에서 이동합니다. 엔드 투 엔드 데이터 파이프라인을 관리하고 유지보수하려면 적절한 워크플로 관리 도구를 사용합니다. Cloud Composer는 오픈소스 Apache Airflow 프로젝트를 기반으로 하는 완전 관리형 워크플로 관리 도구입니다.

Cloud Composer를 사용하여 Dataflow 파이프라인을 실행하고 Dataproc 워크플로 템플릿을 사용할 수 있습니다. Cloud Composer는 DAG를 테스트, 동기화, 배포하는 CI/CD 파이프라인을 만들거나 또는 데이터 처리 워크플로를 위한 CI/CD 파이프라인 사용할 때도 도움이 될 수 있습니다. 자세한 내용은 Cloud Composer: 개발 권장사항을 참조하세요.

마이그레이션 리소스

데이터 분석 플랫폼을 이미 실행하고 있고 워크로드의 일부 또는 전부를 Google Cloud로 마이그레이션하려면 다음 마이그레이션 리소스를 살펴보고 권장사항과 안내를 확인하세요.

다음 단계

다음을 포함하여 Google Cloud AI 및 머신러닝의 시스템 설계 권장사항에 대해 알아보세요.

아키텍처 프레임워크에서 안정성, 운영 우수성, 보안, 개인정보 보호, 규정 준수 등의 다른 카테고리를 살펴보기