Google Cloud에서 R을 사용한 데이터 과학: 탐색적 데이터 분석 가이드

Last reviewed 2024-04-16 UTC

이 튜토리얼에서는 Google Cloud에서 R을 사용하여 대규모 데이터 과학을 시작하는 방법을 보여줍니다. 이 튜토리얼은 R 및 Jupyter 노트북 사용 경험이 있고 SQL에 익숙한 사용자를 대상으로 작성되었습니다.

이 튜토리얼에서는 Vertex AI Workbench 사용자 관리 노트북과 BigQuery를 사용하여 탐색 데이터 분석을 수행하는 방법을 중점적으로 설명합니다. GitHub의 Jupyter 노트북에서 이 튜토리얼의 코드를 찾을 수 있습니다.

개요

R은 통계 모델링에 가장 널리 사용되는 프로그래밍 언어 중 하나이며 데이터 과학자와 머신러닝(ML) 전문가를 아우르는 대규모 커뮤니티입니다. Comprehensive R Archive Network(CRAN) 오픈소스 저장소에 패키지가 15,000개 이상 있는 R에는 모든 통계 데이터 분석 애플리케이션, ML, 시각화용 도구가 있습니다. R은 문법 표현 및 포괄적인 데이터와 ML 라이브러리의 양으로 인해 지난 20년 동안 꾸준하게 성장하고 있습니다.

데이터 과학자로서 여러분은 R을 사용하여 역량을 어떻게 활용할 수 있는지, 그리고 ML을 위한 확장 가능한 완전 관리형 클라우드 서비스의 이점도 어떻게 활용할 수 있는지를 알아볼 수 있습니다.

아키텍처

이 튜토리얼에서는 사용자 관리 노트북을 데이터 과학 환경으로 사용하여 탐색적 데이터 분석(EDA)을 수행합니다. 확장성과 경제성이 뛰어난 Google의 서버리스 클라우드 데이터 웨어하우스인 BigQuery에서 이 튜토리얼의 일부로서 추출하는 데이터에 R을 사용합니다. 데이터를 분석하고 처리하면, 변환된 데이터가 추가 ML 작업을 위해 Cloud Storage에 저장됩니다. 이 흐름은 다음 다이어그램에 나와 있습니다.

BigQuery에서 사용자 관리 노트북으로 전송되는 데이터의 흐름으로, R을 사용하여 데이터가 처리되고 추가 분석을 위해 결과가 Cloud Storage에 전송됩니다.

튜토리얼용 데이터

이 튜토리얼에서 사용되는 데이터 세트는 BigQuery 출생률 데이터 세트입니다. 이 공개 데이터 세트에는 1969년부터 2008년까지 미국에 등록된 1억 3천 7백만 명 이상의 출생 정보가 포함되어 있습니다.

이 튜토리얼에서는 EDA 및 R과 BigQuery를 사용한 시각화에 중점을 둡니다. 이 튜토리얼에서는 임신 및 산모와 관련된 여러 가지 요소를 바탕으로 아기 체중을 예측하는 머신러닝 목표를 설정합니다. 하지만 태스크를 취급하지 않습니다.

사용자 관리 노트북

Vertex AI Workbench 사용자 관리 노트북은 다음과 같은 기능을 포함한 통합 JupyterLab 환경을 제공하는 서비스입니다.

  • 클릭 한 번으로 배포. 클릭 한 번으로 최신 머신러닝 및 데이터 과학 프레임워크로 사전 구성된 JupyterLab 인스턴스를 시작할 수 있습니다.
  • 필요에 따라 규모 조정. 작은 머신 구성(예: 이 튜토리얼에서와 같이 vCPU 4개, RAM 15GB)으로 시작할 수 있으며, 데이터가 한 머신에 비해 너무 커지면 CPU, RAM, GPU를 추가하여 규모를 확장할 수 있습니다.
  • Google Cloud 통합. Vertex AI Workbench 사용자 관리 노트북 인스턴스는 BigQuery와 같은 Google Cloud 서비스와 통합됩니다. 이 통합으로 인해 데이터 수집부터 사전 처리와 탐색까지 간편하게 진행할 수 있습니다.
  • 사용량에 따른 청구. 최소 수수료나 선불 약정이 없이 Vertex AI Workbench 사용자 관리 노트북 가격 책정을 참조하세요. 사용자 관리 노트북 인스턴스와 함께 사용하는 Google Cloud 리소스에도 요금이 부과됩니다.

사용자 관리 노트북은 Deep Learning VM Image에서 실행됩니다. 이러한 이미지는 PyTorch 및 TensorFlow와 같은 ML 프레임워크를 지원하도록 최적화되어 있습니다. 이 튜토리얼에서는 R 3.6을 사용하는 사용자 관리 노트북 인스턴스 만들기를 지원합니다.

R을 사용하여 BigQuery로 작업

BigQuery는 인프라 관리가 필요하지 않으므로 의미 있는 정보를 찾는 데 집중할 수 있습니다. BigQuery를 사용하면 익숙한 SQL로 데이터를 작업할 수 있으므로 데이터베이스 관리자가 필요하지 않습니다. BigQuery를 사용하여 대량의 데이터를 대규모로 분석하고 BigQuery의 풍부한 SQL 분석 기능을 사용하여 ML용 데이터 세트를 준비할 수 있습니다.

R을 사용하여 BigQuery 데이터를 쿼리하려면 오픈소스 R 라이브러리인 bigrquery를 사용하면 됩니다. bigrquery 패키지는 BigQuery를 기반으로 다음과 같은 추상화 수준을 제공합니다.

  • 하위 수준 API는 기본 BigQuery REST API를 통해 씬 래퍼를 제공합니다.

  • DBI 인터페이스는 하위 수준의 API를 래핑하며 이 인터페이스를 사용하면 다른 데이터베이스 시스템으로 작업과 비슷하게 BigQuery로 작업할 수 있습니다. 이 방식은 BigQuery에서 SQL 쿼리를 실행하거나 100MB 미만을 업로드하려는 경우에 가장 편리한 레이어입니다.

  • dbplir 인터페이스를 사용하면 BigQuery 테이블을 메모리 내 데이터 프레임처럼 취급할 수 있습니다. SQL을 작성하는 대신 dbplir이 작성하게 하려는 경우 가장 편리한 레이어입니다.

이 튜토리얼은 DBI 또는 dbplyr을 요구하지 않고 bigrquery의 하위 수준 API를 사용합니다.

목표

  • R을 지원하는 사용자 관리 노트북 인스턴스를 만들기
  • bigrquery R 라이브러리를 사용하여 BigQuery에서 데이터를 쿼리하고 분석하기
  • Cloud Storage에서 ML용 데이터를 준비하고 저장하기

비용

이 문서에서는 비용이 청구될 수 있는 다음과 같은 Google Cloud 구성요소를 사용합니다.

프로젝트 사용량을 기준으로 예상 비용을 산출하려면 가격 계산기를 사용하세요. Google Cloud를 처음 사용하는 사용자는 무료 체험판을 사용할 수 있습니다.

시작하기 전에

  1. Google Cloud 계정에 로그인합니다. Google Cloud를 처음 사용하는 경우 계정을 만들고 Google 제품의 실제 성능을 평가해 보세요. 신규 고객에게는 워크로드를 실행, 테스트, 배포하는 데 사용할 수 있는 $300의 무료 크레딧이 제공됩니다.
  2. Google Cloud Console의 프로젝트 선택기 페이지에서 Google Cloud 프로젝트를 선택하거나 만듭니다.

    프로젝트 선택기로 이동

  3. Google Cloud 프로젝트에 결제가 사용 설정되어 있는지 확인합니다.

  4. Compute Engine API 사용 설정

    API 사용 설정

  5. Google Cloud Console의 프로젝트 선택기 페이지에서 Google Cloud 프로젝트를 선택하거나 만듭니다.

    프로젝트 선택기로 이동

  6. Google Cloud 프로젝트에 결제가 사용 설정되어 있는지 확인합니다.

  7. Compute Engine API 사용 설정

    API 사용 설정

R로 사용자 관리 노트북 인스턴스 만들기

첫 번째 단계는 이 튜토리얼에서 사용할 수 있는 사용자 관리 노트북 인스턴스를 만드는 것입니다.

  1. Google Cloud Console에서 Notebooks 페이지로 이동합니다.

    노트북으로 이동

  2. 사용자 관리 노트북 탭에서  새 노트북을 클릭합니다.

  3. R 3.6을 선택합니다.

    R 버전 선택.

  4. 이 튜토리얼에서는 모든 기본값을 그대로 두고 만들기를 클릭합니다.

    새 노트북 인스턴스 만들기

    사용자 관리 노트북 인스턴스를 시작하는 데 최대 90초가 걸릴 수 있습니다. 준비가 되면 메모장 인스턴스 창의 인스턴스 이름 옆에 JupyterLab 열기 링크가 표시됩니다.

    인스턴스가 준비되었을 때의 콘솔.

JupyterLab 열기

노트북에서 튜토리얼을 진행하려면 JupyterLab 환경을 열고 ml-on-gcp GitHub 저장소를 복제한 다음 노트북을 열어야 합니다.

  1. 인스턴스 목록에서 Jupyterlab 열기를 클릭합니다. 그러면 브라우저에서 JupyterLab 환경이 열립니다.

    Jupyter 런처

  2. 터미널 탭을 실행하려면 런처에서 터미널을 클릭합니다.

  3. 터미널에서 ml-on-gcp GitHub 저장소를 클론합니다.

    git clone https://github.com/GoogleCloudPlatform/ml-on-gcp.git
    

    명령어가 완료되면 파일 브라우저에 ml-on-gcp 폴더가 표시됩니다.

  4. 파일 브라우저에서 ml-on-gcp, tutorials, R.을 차례로 엽니다.

    클론 결과는 다음과 같습니다.

    R 파일 열기.

노트북 열기 및 R 설정

bigrquery를 포함하여 이 튜토리얼에 필요한 R 라이브러리는 기본적으로 R 노트북에 설치됩니다. 이 절차의 일부로서 라이브러리를 가져와 노트북에서 사용할 수 있도록 합니다.

  1. 파일 브라우저에서 01-EDA-with-R-and-BigQuery.ipynb 노트북을 엽니다.

    이 노트북은 R 및 BigQuery를 사용한 탐색적 데이터 분석 튜토리얼을 다룹니다. 튜토리얼의 이 시점에서 노트북에서 작업하고 Jupyter 노트북 자체에 표시되는 코드를 실행합니다.

  2. 이 튜토리얼에 필요한 R 라이브러리를 가져옵니다.

    library(bigrquery) # used for querying BigQuery
    library(ggplot2) # used for visualization
    library(dplyr) # used for data wrangling
    
  3. 대역 외 인증을 사용하여 bigrquery를 인증합니다.

    bq_auth(use_oob = True)
    
  4. 변수를 이 튜토리얼에 사용할 프로젝트의 이름으로 설정합니다.

    # Set the project ID
    PROJECT_ID <- "gcp-data-science-demo"
    
  5. 변수를 Cloud Storage 버킷 이름으로 설정합니다.

    BUCKET_NAME <- "bucket-name"
    

    bucket-name을 전역적으로 고유한 이름으로 바꿉니다.

    나중에 버킷을 사용하여 출력 데이터를 저장합니다.

BigQuery에서 데이터 쿼리

이 튜토리얼 섹션에서는 BigQuery SQL 문을 R로 실행한 결과를 읽고 데이터를 미리 살펴봅니다.

  1. 2000년 이후 출생 샘플에 대한 몇 가지 가능한 예측 변수와 타겟 예측 변수를 추출하는 BigQuery SQL 문을 만듭니다.

    sql_query <- "
        SELECT
          ROUND(weight_pounds, 2) AS weight_pounds,
          is_male,
          mother_age,
          plurality,
          gestation_weeks,
          cigarette_use,
          alcohol_use,
          CAST(ABS(FARM_FINGERPRINT(CONCAT(
            CAST(YEAR AS STRING), CAST(month AS STRING),
            CAST(weight_pounds AS STRING)))
            ) AS STRING) AS key
        FROM
            publicdata.samples.natality
        WHERE
          year > 2000
          AND weight_pounds > 0
          AND mother_age > 0
          AND plurality > 0
          AND gestation_weeks > 0
          AND month > 0
        LIMIT %s
    "
    

    key 열은 year, month, weight_pounds 열의 연결된 값을 기반으로 생성된 행 식별자입니다.

  2. 쿼리를 실행하고 데이터를 인메모리 data frame 객체로 검색합니다.

    sample_size <- 10000
    sql_query <- sprintf(sql_query, sample_size)
    
    natality_data <- bq_table_download(
        bq_project_query(
            PROJECT_ID,
            query=sql_query
        )
    )
    
  3. 검색된 결과 보기:

    head(natality_data)
    

    출력은 다음과 비슷합니다.

    데이터 프레임을 검색한 결과입니다.

  4. 각 열의 행 수와 데이터 유형을 봅니다.

    str(natality_data)
    

    출력은 다음과 비슷합니다.

    Classes ‘tbl_df’, ‘tbl’ and 'data.frame':   10000 obs. of  8 variables:
     $ weight_pounds  : num  7.75 7.4 6.88 9.38 6.98 7.87 6.69 8.05 5.69 9.22 ...
     $ is_male        : logi  FALSE TRUE TRUE TRUE FALSE TRUE ...
     $ mother_age     : int  47 44 42 43 42 43 42 43 45 44 ...
     $ plurality      : int  1 1 1 1 1 1 1 1 1 1 ...
     $ gestation_weeks: int  41 39 38 39 38 40 35 40 38 39 ...
     $ cigarette_use  : logi  NA NA NA NA NA NA ...
     $ alcohol_use    : logi  FALSE FALSE FALSE FALSE FALSE FALSE ...
     $ key            : chr  "3579741977144949713" "8004866792019451772" "7407363968024554640" "3354974946785669169" ...
    
  5. 검색된 데이터의 요약 보기:

    summary(natality_data)
    

    출력은 다음과 비슷합니다.

     weight_pounds     is_male          mother_age     plurality
     Min.   : 0.620   Mode :logical   Min.   :13.0   Min.   :1.000
     1st Qu.: 6.620   FALSE:4825      1st Qu.:22.0   1st Qu.:1.000
     Median : 7.370   TRUE :5175      Median :27.0   Median :1.000
     Mean   : 7.274                   Mean   :27.3   Mean   :1.038
     3rd Qu.: 8.110                   3rd Qu.:32.0   3rd Qu.:1.000
     Max.   :11.440                   Max.   :51.0   Max.   :4.000
     gestation_weeks cigarette_use   alcohol_use         key
     Min.   :18.00   Mode :logical   Mode :logical   Length:10000
     1st Qu.:38.00   FALSE:580       FALSE:8284      Class :character
     Median :39.00   TRUE :83        TRUE :144       Mode  :character
     Mean   :38.68   NA's :9337      NA's :1572
     3rd Qu.:40.00
     Max.   :47.00
    

ggplot2를 사용하여 데이터 시각화

이 섹션에서는 R의 ggplot2 라이브러리를 사용하여 natality 데이터 세트의 일부 변수를 살펴봅니다.

  1. 히스토그램을 사용하여 weight_pounds 값의 분포를 표시합니다.

    ggplot(
        data = natality_data,
        aes(x = weight_pounds)
    ) + geom_histogram(bins = 200)
    

    결과 그래프는 다음과 유사합니다.

    몸무게 분포를 보여주는 히스토그램.

  2. 분산형 그래프를 사용하여 gestation_weeksweight_pounds의 관계를 표시합니다.

    ggplot(
        data = natality_data,
        aes(x = gestation_weeks, y = weight_pounds)
    ) + geom_point() + geom_smooth(method = "lm")
    

    결과 그래프는 다음과 유사합니다.

    몸무게에 대한 임신 주 분산도.

R에서 BigQuery의 데이터 처리

대규모 데이터세트로 작업하는 경우 BigQuery에서 최대한 많은 분석(집계, 필터링, 조인, 열 계산 등)을 수행한 후 결과를 검색하는 것이 좋습니다. R에서 이러한 태스크를 수행하는 것은 보다 비효율적입니다. 분석에 BigQuery를 사용하면 BigQuery의 확장성과 성능을 활용할 수 있고 반환된 결과가 R의 메모리에 적합한지 확인할 수 있습니다.

  1. 선택한 열의 각 값에 대한 레코드 수와 평균 몸무게를 찾는 함수를 만듭니다.

    get_distinct_values <- function(column_name) {
        query <- paste0(
            'SELECT ', column_name, ',
                COUNT(1) AS num_babies,
                AVG(weight_pounds) AS avg_wt
            FROM publicdata.samples.natality
            WHERE year > 2000
            GROUP BY ', column_name)
    
        bq_table_download(
            bq_project_query(
                PROJECT_ID,
                query = query
            )
        )
    }
    
  2. mother_age 열을 사용하여 이 함수를 호출한 다음 산모 연령별 아기 수 및 평균 몸무게를 확인합니다.

    df <- get_distinct_values('mother_age')
    ggplot(data = df, aes(x = mother_age, y = num_babies)) + geom_line()
    ggplot(data = df, aes(x = mother_age, y = avg_wt)) + geom_line()
    

    첫 번째 ggplot 명령어의 출력은 다음과 같으며, 산모 연령별 출생 아기의 수를 보여줍니다.

    산모 연령별 출생 아기의 수 그래프.

    두 번째 ggplot 명령어의 출력은 다음과 같으며, 산모 연령별 아기의 평균 몸무게를 보여줍니다.

    산모 연령별 아기의 평균 몸무게 그래프.

더 많은 시각화 예시를 보려면 Notebooks를 참조하세요.

데이터를 CSV 파일로 저장

다음 작업은 BigQuery에서 추출된 데이터를 추가 ML 작업에 사용할 수 있도록 Cloud Storage에 CSV 파일로 저장하는 것입니다.

  1. 학습 및 평가 데이터를 BigQuery에서 R로 로드합니다.

    # Prepare training and evaluation data from BigQuery
    sample_size <- 10000
    sql_query <- sprintf(sql_query, sample_size)
    
    train_query <- paste('SELECT * FROM (', sql_query,
      ') WHERE MOD(CAST(key AS INT64), 100) <= 75')
    eval_query <- paste('SELECT * FROM (', sql_query,
      ') WHERE MOD(CAST(key AS INT64), 100) > 75')
    
    # Load training data to data frame
    train_data <- bq_table_download(
        bq_project_query(
            PROJECT_ID,
            query = train_query
        )
    )
    
    # Load evaluation data to data frame
    eval_data <- bq_table_download(
        bq_project_query(
            PROJECT_ID,
            query = eval_query
        )
    )
    
  2. 데이터를 로컬 CSV 파일에 씁니다.

    # Write data frames to local CSV files, without headers or row names
    dir.create(file.path('data'), showWarnings = FALSE)
    write.table(train_data, "data/train_data.csv",
       row.names = FALSE, col.names = FALSE, sep = ",")
    write.table(eval_data, "data/eval_data.csv",
       row.names = FALSE, col.names = FALSE, sep = ",")
    
  3. 시스템에 전달되는 gsutil 명령어를 래핑하여 CSV 파일을 Cloud Storage에 업로드합니다.

    # Upload CSV data to Cloud Storage by passing gsutil commands to system
    gcs_url <- paste0("gs://", BUCKET_NAME, "/")
    command <- paste("gsutil mb", gcs_url)
    system(command)
    gcs_data_dir <- paste0("gs://", BUCKET_NAME, "/data")
    command <- paste("gsutil cp data/*_data.csv", gcs_data_dir)
    system(command)
    command <- paste("gsutil ls -l", gcs_data_dir)
    system(command, intern = TRUE)
    

    이 단계의 또 다른 옵션은 Cloud Storage JSON API를 사용하여 이 작업에 googleCloudStorageR 라이브러리를 사용하는 것입니다.

삭제

이 튜토리얼에서 사용한 리소스 비용이 Google Cloud 계정에 청구되지 않도록 하려면 관련 리소스를 삭제해야 합니다.

프로젝트 삭제

청구되지 않도록 하는 가장 쉬운 방법은 튜토리얼에서 만든 프로젝트를 삭제하는 것입니다.

  1. Google Cloud 콘솔에서 리소스 관리 페이지로 이동합니다.

    리소스 관리로 이동

  2. 프로젝트 목록에서 삭제할 프로젝트를 선택하고 삭제를 클릭합니다.
  3. 대화상자에서 프로젝트 ID를 입력한 후 종료를 클릭하여 프로젝트를 삭제합니다.

다음 단계

  • bigrquery 문서에서 R 노트북의 BigQuery 데이터를 사용하는 방법 알아보기
  • ML 규칙에서 ML 엔지니어링 권장사항 알아보기
  • Google Cloud에 대한 참조 아키텍처, 다이어그램, 권장사항을 살펴보기 Cloud 아키텍처 센터 살펴보기