ONNX 형식의 scikit-learn 모델로 예측 수행
Open Neural Network Exchange(ONNX)는 어떤 머신러닝 프레임워크이든 나타내도록 설계된 균일한 형식을 제공합니다. ONNX에 대한 BigQuery ML 지원을 통해 다음을 수행할 수 있습니다.
- 원하는 프레임워크를 사용하여 모델을 학습시키기
- 모델을 ONNX 모델 형식으로 변환하기. 자세한 내용은 ONNX 형식으로 변환을 참조하세요.
- ONNX 모델을 BigQuery로 가져오고 BigQuery ML을 사용하여 예측하기
이 튜토리얼에서는 scikit-learn으로 학습된 ONNX 모델을 BigQuery 데이터 세트로 가져오고 이를 사용해서 SQL 쿼리로부터 예측을 수행하는 방법을 설명합니다. 다음 인터페이스를 사용하여 ONNX 모델을 가져올 수 있습니다.
- Google Cloud 콘솔
- bq 명령줄 도구의
bq query
명령어 - BigQuery API
형식 및 스토리지 요구사항을 포함하여 BigQuery로 ONNX 모델을 가져오는 데 대한 자세한 내용은 ONNX 모델을 가져오기 위한 CREATE
MODEL
문을 참조하세요.
목표
이 튜토리얼에서는 다음 단계를 진행합니다.
- scikit-learn으로 모델을 만들고 학습시키기
- sklearn-onnx를 사용하여 모델을 ONNX 형식으로 변환하기
- ONNX 모델을 BigQuery로 가져오고 예측하기
scikit-learn으로 분류 모델 학습
Iris 데이터 세트에서 scikit-learn 파이프라인을 만들고 학습시킵니다.
import numpy
from sklearn.datasets import load_iris
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.ensemble import RandomForestClassifier
data = load_iris()
X = data.data[:, :4]
y = data.target
ind = numpy.arange(X.shape[0])
numpy.random.shuffle(ind)
X = X[ind, :].copy()
y = y[ind].copy()
pipe = Pipeline([('scaler', StandardScaler()),
('clr', RandomForestClassifier())])
pipe.fit(X, y)
모델을 ONNX 형식으로 변환하고 저장
sklearn-onnx를 사용하여 scikit-learn 파이프라인을 pipeline_rf.onnx
라는 ONNX 모델로 변환합니다.
from skl2onnx import convert_sklearn
from skl2onnx.common.data_types import FloatTensorType
# Disable zipmap as it is not supported in BigQuery ML.
options = {id(pipe): {'zipmap': False}}
# Define input features. scikit-learn does not store information about the
# training dataset. It is not always possible to retrieve the number of features
# or their types. That's why the function needs another argument called initial_types.
initial_types = [
('sepal_length', FloatTensorType([None, 1])),
('sepal_width', FloatTensorType([None, 1])),
('petal_length', FloatTensorType([None, 1])),
('petal_width', FloatTensorType([None, 1])),
]
# Convert the model.
model_onnx = convert_sklearn(
pipe, 'pipeline_rf', initial_types=initial_types, options=options
)
# And save.
with open('pipeline_rf.onnx', 'wb') as f:
f.write(model_onnx.SerializeToString())
Cloud Storage에 ONNX 모델 업로드
ONNX 모델 파일을 저장할 Cloud Storage 버킷을 만들고, 저장된 ONNX 모델 파일을 Cloud Storage 버킷에 업로드합니다. 자세한 내용은 파일 시스템에서 객체 업로드를 참조하세요.
ONNX 모델을 BigQuery로 가져오기
이 단계에서는 ONNX 모델을 Cloud Storage 버킷에 업로드했다고 가정합니다. 예시 모델은 gs://cloud-samples-data/bigquery/ml/onnx/pipeline_rf.onnx
에 저장됩니다.
콘솔
Google Cloud 콘솔에서 BigQuery 페이지로 이동합니다.
쿼리 편집기에서 다음과 같이
CREATE MODEL
문을 입력합니다.CREATE OR REPLACE MODEL `mydataset.mymodel` OPTIONS (MODEL_TYPE='ONNX', MODEL_PATH='gs://bucket/path/to/onnx_model/*')
예를 들면 다음과 같습니다.
CREATE OR REPLACE MODEL `example_dataset.imported_onnx_model` OPTIONS (MODEL_TYPE='ONNX', MODEL_PATH='gs://cloud-samples-data/bigquery/ml/onnx/pipeline_rf.onnx')
앞의 쿼리는
gs://cloud-samples-data/bigquery/ml/onnx/pipeline_rf.onnx
에 위치한 ONNX 모델을imported_onnx_model
이라는 BigQuery 모델로 가져옵니다.새 모델이 리소스 패널에 표시됩니다. 프로젝트의 각 데이터 세트를 확장하면 모델이 데이터 세트의 다른 BigQuery 리소스와 함께 나열됩니다. 모델은 모델 아이콘()으로 표시됩니다.
리소스 패널에서 새 모델을 선택하면 모델에 대한 정보가 쿼리 편집기 아래에 표시됩니다.
bq
Cloud Storage에서 ONNX 모델을 가져오려면 다음과 같은 명령어를 입력하여 일괄 쿼리를 실행합니다.
bq query \
--use_legacy_sql=false \
"CREATE MODEL
`mydataset.mymodel`
OPTIONS
(MODEL_TYPE='ONNX',
MODEL_PATH='gs://bucket/path/to/onnx_model/*')"
예를 들면 다음과 같습니다.
bq query --use_legacy_sql=false \
"CREATE OR REPLACE MODEL
`example_dataset.imported_onnx_model`
OPTIONS
(MODEL_TYPE='ONNX',
MODEL_PATH='gs://cloud-samples-data/bigquery/ml/onnx/pipeline_rf.onnx')"
모델을 가져오면 bq ls [dataset_name]
의 출력에 모델이 나타납니다.
$ bq ls example_dataset
tableId Type Labels Time Partitioning
--------------------- ------- -------- -------------------
imported_onnx_model MODEL
API
새 작업을 삽입하고 jobs#configuration.query 속성을 다음 요청 본문과 같이 입력합니다.
{
"query": "CREATE MODEL project_id:mydataset.mymodel OPTIONS(MODEL_TYPE='ONNX' MODEL_PATH='gs://bucket/path/to/onnx_model/*')"
}
BigQuery DataFrames
이 샘플을 사용해 보기 전에 BigQuery DataFrames를 사용하여 BigQuery 빠른 시작의 BigQuery DataFrames 설정 안내를 따르세요. 자세한 내용은 BigQuery DataFrames 참고 문서를 확인하세요.
BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
ONNXModel
객체를 사용하여 모델을 가져옵니다.
가져온 ONNX 모델로 예측 수행
콘솔
Google Cloud 콘솔에서 BigQuery 페이지로 이동합니다.
쿼리 편집기에서 다음과 같이
ML.PREDICT
를 사용하여 쿼리를 입력합니다.SELECT * FROM ML.PREDICT(MODEL
example_dataset.imported_onnx_model
, ( SELECT * FROMbigquery-public-data.ml_datasets.iris
) )앞의 쿼리는 현재 프로젝트의 데이터 세트
example_dataset
에 있는imported_onnx_model
모델을 사용하여 프로젝트bigquery-public-data
의 데이터 세트ml_datasets
에서 공개 테이블iris
의 입력 데이터를 사용하여 예측합니다. 이 경우 ONNX 모델에서는 4개의 부동 입력(sepal_length
,sepal_width
,petal_length
,petal_width
)을 기대하는데, 이들은 2단계에서 정의된initial_types
과 일치하므로 서브 쿼리는 이 4개의 입력 열이 포함된bigquery-public-data
테이블 전체를SELECT
합니다.모델은
label
및probabilities
열과 입력 테이블의 열을 출력합니다.label
은 예측된 클래스 라벨을 나타냅니다.probabilities
는 각 클래스의 확률을 나타내는 확률의 배열입니다.
쿼리 결과는 다음과 비슷합니다.
bq
input_data
테이블의 입력 데이터로 예측하려면 가져온 ONNX 모델 my_model
을 사용하여 다음과 같은 명령어를 입력합니다.
bq query \
--use_legacy_sql=false \
'SELECT *
FROM ML.PREDICT(
MODEL `my_project.my_dataset.my_model`,
(SELECT * FROM input_data))'
예를 들면 다음과 같습니다.
bq query \
--use_legacy_sql=false \
'SELECT *
FROM ML.PREDICT(
MODEL `example_dataset.imported_onnx_model`,
(SELECT * FROM `bigquery-public-data.ml_datasets.iris`))'
API
새 작업을 삽입하고 jobs#configuration.query 속성을 다음 요청 본문과 같이 입력합니다.
{
"query": "SELECT * FROM ML.PREDICT(MODEL `my_project.my_dataset.my_model`, (SELECT * FROM input_data))"
}
BigQuery DataFrames
이 샘플을 사용해 보기 전에 BigQuery DataFrames를 사용하여 BigQuery 빠른 시작의 BigQuery DataFrames 설정 안내를 따르세요. 자세한 내용은 BigQuery DataFrames 참고 문서를 확인하세요.
BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 로컬 개발 환경의 인증 설정을 참조하세요.
predict
함수를 사용하여 원격 모델을 실행합니다.
결과는 다음과 비슷합니다.
다음 단계
- ONNX 모델 가져오기에 대한 자세한 내용은 ONNX 모델의
CREATE MODEL
문 참조하기 - 사용 가능한 ONNX 변환기 및 튜토리얼에 대한 자세한 내용은 ONNX 형식으로 변환 참조하기
- BigQuery ML 개요는 BigQuery ML 소개 참조하기
- BigQuery ML을 시작하려면 BigQuery ML에서 머신러닝 모델 만들기 참조하기
- 모델 작업에 대한 자세한 내용은 다음 리소스를 참조하기