Google Cloud에서 데이터 레이크 구축

경제적이며 민첩한 방식으로 모든 데이터를 저장, 처리, 분석하세요.

클라우드 데이터 레이크 개요

원시 데이터를 유용한 정보로 변환

현재 데이터를 어디에 보관 중인가요? 데이터를 최대한 활용하고 있나요? 구조화되거나 구조화되지 않은 모든 데이터를 Google Cloud에 로드하면 처리, 분석, 머신러닝 도구에서 기업을 성공으로 이끄는 유용한 정보로 변환해 줍니다.

수집부터 유용한 정보에 이르기까지

GCP 데이터 레이크의 데이터

클라우드로 간편하게 마이그레이션

일괄 데이터 또는 스트리밍 데이터를 처리하거나, 네트워크에서 마이그레이션하거나 오프라인 Transfer Appliance를 사용하거나 실시간 스트림을 캡처하나요? 현재 데이터 보관 위치나 마이그레이션 관리 방식에 상관없이 99.999999999%의 내구성을 제공하는 Cloud Storage를 사용하여 Google Cloud로 쉽게 이전할 수 있습니다.

페타바이트급의 데이터 저장

유연하고 강력한 비용 효율적인 스토리지

스토리지와 컴퓨팅을 분리한 덕분에 데이터를 1GB 단위로 점진적으로 추가할 수 있으며 저장한 만큼만 요금을 지불하면 됩니다. 다양한 스토리지 클래스를 통해 비용과 가용성을 최적화할 수 있으며 스키마 설계가 필요 없습니다. 전체 Google Cloud Platform과 호환되어 빠르게 새 분석 및 데이터로 실험하여 모든 사용 사례를 지원할 수 있습니다.

데이터 처리

원하는 방식으로 데이터 처리

Cloud Storage를 사용하면 데이터를 비즈니스에 적합한 방식으로 처리할 수 있습니다. 완전 관리형 Apache Hadoop 및 Apache Spark 서비스인 Cloud Dataproc을 사용하여 몇 초 만에 클러스터를 가동하고 작업 실행에 소요된 시간만큼만 요금을 지불하면 됩니다. 완전 관리형 Apache Beam 서비스인 Cloud Dataflow를 사용하면 복잡한 프로비저닝과 관리 작업이 필요 없는 서버리스 환경에서 스트림 및 일괄 워크로드를 처리할 수 있습니다.

서버리스 데이터 웨어하우스

빠른 대시보드 및 시각화

대량의 구조화된 데이터를 빠르게 분석하고 싶으신가요? Google Cloud의 서버리스 페타바이트급 데이터 웨어하우스인 BigQuery를 사용하면 웨어하우스를 몇 초 만에 설정하고 데이터 쿼리를 바로 시작할 수 있음은 물론 인메모리 BigQuery BI Engine으로 즉각적인 기업 보고와 비즈니스 인텔리전스를 얻을 수 있습니다.

ML을 사용한 고급 분석

새로운 머신러닝의 유용한 정보

Cloud AI의 기본 통합 기능을 사용하면 이미지동영상에 숨겨진 유용한 정보를 도출하고 대규모 머신러닝 알고리즘을 배포하는 등 데이터 레이크에서 머신러닝의 방대한 잠재력을 활용할 수 있습니다. 사용하기 쉬운 기본 제공 BigQuery ML 기능은 머신러닝을 대중화하며 누구나 모델을 빌드하고 배포하도록 지원하여 사내의 데이터 기반 문화를 지원합니다.

데이터 레이크를 만들 준비가 되었나요?

온프레미스 Hadoop 데이터 레이크 워크로드를 GCP 제품에 연계하기

Building a cloud data lake on GCPYESNOIm processingstreaming dataWe useApache BeamWe useApache Spark or KafkaCloud DataflowCloud DataprocCloud DataprocIm doinginteractive dataanalysis orad-hoc queryingWe use Apache Sparkwith interactive webnotebooksAre you interested in keepingthese SQL queries as they are?Cloud Dataproc in combinationwith Jupyter or Zeppelinoptional componentsCloud DataprocNo, Im interested inlearning more abouta serverless solution.YESNONo, Im interested inlearning more abouta managed solution.BigQueryWe use SQL with Apache Hive,Apache Drill, Impala,Presto or similarCloud DataprocCloud DataprocIm doing ELT/ETLor batch processingWe use MapReduce,Spark, Pig, or HiveWe use Oozie forworkflow orchestrationCloud ComposerAre you interested inkeeping these workflowjobs as they are?Im supportingNoSQL workloadsWe useApache AccumuloCloud DataprocYESNONeed to use coprocessorsor SQL with Apache Phoenix?Cloud DataprocCloud BigtableWe useApache HBaseIm running anApache Hadoopclusteron-premises

리소스