SAP 운영을 위한 BigQuery 툴킷 관리

이 문서에서는 SAP 관리자, SAP 개발자 또는 기타 사용자에게 SAP용 BigQuery 도구 키트의 운영 태스크를 실행하는 방법을 보여줍니다.

동적 청크 크기

청크의 바이트 크기가 BigQuery에서 허용되는 HTTP 요청의 최대 바이트 크기를 초과할 경우 청크 크기를 줄여서 바이트 크기를 수동으로 줄여야 합니다. 동적 청크 크기 기능을 사용하면 청크 크기를 자동으로 줄이고 청크의 바이트 크기가 BigQuery에서 허용되는 HTTP 요청의 최대 바이트 크기를 초과할 때 BigQuery로 복제를 다시 시도할 수 있습니다. 동적 청크 크기는 요청의 바이트 크기 초과로 인한 대부분의 복제 오류를 방지하는 데 도움이 됩니다. 청크 크기가 1에 도달할 경우에만 오류가 발생할 수 있지만 바이트 크기는 각 HTTP 요청에서 바이트 수에 대한 BigQuery 한도보다 높게 유지됩니다.

/GOOG/BQTR_SETTINGS 트랜잭션을 사용하여 테이블의 데이터 전송 구성에서 동적 청크 크기를 사용 설정합니다. 동적 청크 크기는 선택적인 설정입니다. 동적 청크 크기를 사용 설정하는 방법에 관한 자세한 내용은 테이블 만들기 및 기타 일반 속성 지정을 참고하세요.

SAP용 BigQuery 툴킷이 청크 크기를 줄이면 다음 정보 메시지가 매개변수 et_return의 호출 ABAP 애플리케이션에 반환됩니다.

Dynamic chunking triggered. Chunk size reduced from INITIAL_CHUNK_SIZE_VALUE to FINAL_REDUCED_CHUNK_SIZE_VALUE

대량 전송 설정을 프로덕션으로 전송

SAP 대량 전송 설정을 위한 BigQuery 툴킷을 프로덕션으로 전송하려면 먼저 개발 시스템에서 설정을 내보낸 후 프로덕션 시스템으로 가져옵니다.

원하는 경우 대량 전송 설정의 두 가지 부분을 프로덕션으로 가져올 수 있습니다.

  • SM30 트랜잭션을 사용하여 액세스할 수 있는 /GOOG/CLIENT_KEY 테이블의 클라이언트 키 설정
  • /GOOG/BQTR_SETTINGS 트랜잭션을 사용하여 액세스할 수 있는 SAP 대량 전송 설정을 위한 BigQuery 툴킷

개발 시스템에서 대량 전송 설정 내보내기

SAP 개발 시스템에서 대량 전송 설정의 각 부분을 내보냅니다.

  1. SAP용 BigQuery 툴킷 대량 전송 설정을 내보냅니다.

    1. SAP GUI에서 트랜잭션 코드 /GOOG/SDK_IMG를 실행합니다.

      또는 트랜잭션 코드 SPRO를 실행한 후 SAP 참조 IMG를 클릭합니다.

    2. ABAP SDK for Google Cloud > 기본 설정 > BigQuery Data Transfer: Settings Maintenance(BigQuery Data Transfer: 설정 유지보수)를 클릭합니다.

    3. 설정 테이블 필드에서 대량 전송을 선택합니다.

    4. 프로덕션으로 전송할 대량 전송 레코드를 선택합니다.

    5. 대량 전송을 클릭합니다.

    6. Workbench 요청 프롬프트에서 전송 요청 번호를 입력하고 계속 아이콘을 클릭합니다. 선택한 대량 전송 레코드마다 다음 커스텀 구성 테이블의 설정이 전송에 포함됩니다.

      • /GOOG/BQTR_MASTR
      • /GOOG/BQTR_TABLE
      • /GOOG/BQTR_FIELD

    대량 전송 설정은 전송 요청에 저장됩니다.

  2. 전송 요청에 /GOOG/CLIENT_KEY 테이블의 콘텐츠를 수동으로 포함하여 클라이언트 키 설정을 내보냅니다.

  3. 파일을 로컬 워크스테이션에 저장합니다.

프로덕션 시스템으로 대량 전송 설정 가져오기

대량 전송 설정이 포함된 전송 요청을 가져옵니다.

SAP 프로덕션 시스템에서 대량 전송 설정의 각 부분을 가져옵니다.

  1. SAP GUI에서 대량 전송 설정이 포함된 전송 요청을 가져옵니다.

  2. SAP GUI에서 트랜잭션 코드 /GOOG/SDK_IMG를 실행합니다.

    또는 트랜잭션 코드 SPRO를 실행한 후 SAP 참조 IMG를 클릭합니다.

  3. ABAP SDK for Google Cloud > 기본 설정 > 클라이언트 키 구성을 클릭합니다.

  4. 프로덕션 환경에 맞게 클라이언트 키 설정을 업데이트합니다.

  5. ABAP SDK for Google Cloud > 기본 설정 > BigQuery Data Transfer: Settings Maintenance(BigQuery Data Transfer: 설정 유지보수)를 클릭합니다.

  6. 대량 전송 화면에 올바른 대량 전송이 표시되는지 확인합니다.

  7. 후속 테이블필드 설정 화면에서 프로덕션 환경에 맞게 테이블 및 필드 매핑의 다른 값을 업데이트합니다.

  8. SAP용 BigQuery 툴킷을 호출하는 데이터 로드 프로그램을 실행하여 구성을 테스트합니다.

BigQuery 데이터 전송 설정 보기

BigQuery Data Transfer 모듈의 대량 전송 설정을 보려면 다음 단계를 따르세요.

  1. SAP GUI에서 트랜잭션 코드 /GOOG/SDK_IMG를 실행합니다.

    또는 트랜잭션 코드 SPRO를 실행한 후 SAP 참조 IMG를 클릭합니다.

  2. ABAP SDK for Google Cloud > 기본 설정 > BigQuery Data Transfer: Settings Display(BigQuery Data Transfer: 설정 표시)를 클릭합니다.

또는 /GOOG/BQTR_SETTINGS 트랜잭션을 사용하여 설정을 볼 수 있습니다.

복제 검증

일괄 전송 구성에서 추가 필드 플래그 옵션을 지정하면 SAP용 BigQuery 툴킷이 BigQuery의 테이블 스키마에 추가 열을 추가합니다. 이 열에는 다음 세부정보가 포함됩니다.

  • 각 레코드의 복제를 트리거한 변경 유형에 관한 정보입니다.
  • SAP용 BigQuery 툴킷이 해당 레코드가 포함된 부분을 수신한 시점을 나타내는 타임스탬프입니다.

이 열의 정보를 사용하여 복제 프로세스를 검증하여 SAP 시스템과 BigQuery 간의 데이터 무결성과 일관성을 보장할 수 있습니다. 변경 유형과 타임스탬프를 사용하여 다음 유형의 레코드 수를 쿼리할 수 있습니다.

  • 초기 로드 중에 BigQuery 테이블에 로드된 레코드 수입니다.
  • 지정된 날짜에 BigQuery 테이블에 복제된 레코드 수입니다.
  • BigQuery 테이블에 있는 총 고유 레코드 수입니다.

이러한 수를 확인하려면 Google Cloud 콘솔에서 SQL 쿼리를 제출하여 BigQuery 테이블을 직접 쿼리하면 됩니다.

추가 필드 플래그 개요는 레코드 변경사항 및 집계 쿼리를 위한 추가 필드를 참고하세요.

레코드 수에 대한 SQL 쿼리

Google Cloud 콘솔의 BigQuery SQL 편집기 페이지를 사용하여 SQL 쿼리를 실행하여 BigQuery 테이블의 레코드 수를 확인할 수 있습니다.

초기 로드 모드에 삽입된 레코드 수 쿼리

BigQuery 테이블 스키마에 선택적 operation_flag 열이 포함된 경우 초기 로드 모드에서 테이블에 삽입되는 레코드에는 L 작업 플래그가 포함됩니다.

초기 로드 중에 BigQuery에서 수신한 레코드 수를 가져오려면 다음 쿼리를 실행합니다.

SELECT COUNT(*)
  FROM
      `PROJECT.DATASET.TABLE`
  WHERE operation_flag = 'L'

복제 모드에 삽입된 레코드 수 쿼리

BigQuery 테이블 스키마에 operation_flag 열(선택사항)이 포함된 경우 복제 모드의 테이블에 삽입되는 레코드에는 다음 작업 플래그 중 하나가 포함됩니다.

  • I: 레코드가 소스 테이블에 삽입되었습니다.
  • D: 소스 테이블에서 레코드가 삭제되었습니다.
  • U: 소스 테이블에서 레코드가 업데이트되었습니다.

복제 모드에서 BigQuery가 수신한 레코드 수를 가져오려면 다음 쿼리를 실행합니다.

SELECT COUNT(*)
  FROM
      `PROJECT.DATASET.TABLE`
  WHERE operation_flag = 'I' | 'D' | 'U'

BigQuery 테이블의 총 레코드 수 쿼리

BigQuery 테이블 스키마에 recordstamp 열(선택사항)이 포함된 경우 테이블에 삽입되는 각 레코드의 해당 recordstamp 필드에 SAP용 BigQuery 툴킷에서 BigQuery로 레코드를 전송한 시점을 나타내는 타임스탬프가 포함됩니다.

소스 테이블의 총 레코드 수와 비교할 수 있는 BigQuery 테이블의 총 레코드 수를 가져오려면 recordstampis_deleted 필드를 사용하여 소스 테이블에서 삭제되지 않은 BigQuery 테이블에 있는 고유 레코드를 계수합니다.

레코드를 쿼리할 때 소스 테이블이 활성 업데이트 중이거나 복제가 활성 상태이면 소스 및 대상 테이블의 레코드 수가 정확하게 일치하지 않을 수 있습니다.

BigQuery 대상 테이블의 현재 고유 레코드 수를 가져오려면 다음 쿼리를 실행합니다.

SELECT COUNT(*)
  FROM (
    SELECT
      *,
      ROW_NUMBER() OVER (PARTITION BY KEY_FIELD_1, ..., KEY_FIELD_N ORDER BY recordstamp DESC) row_num
    FROM
      `PROJECT.DATASET.TABLE` )
  WHERE row_num = 1 AND is_deleted = false

CSV 파일에서 BigQuery 필드 맵 수정

다음 섹션에서는 데이터 엔지니어 또는 BigQuery 관리자가 SAP 시스템에 액세스하지 않고도 대상 필드 값을 수정할 수 있도록 기본 필드 매핑을 내보내는 방법을 설명합니다.

타겟 필드 값을 수정할 때는 다음 규칙을 따르세요.

  • SAP 데이터 소스 이름SAP 필드 이름 열의 값은 수정하지 마세요.
  • 압축되지 않은 플래그 전송 열에서 레코드 압축을 사용 설정하려면 필드를 X로만 표시합니다. 그렇지 않으면 이 입력란을 비워둡니다.

기본 필드 매핑의 스프레드시트 또는 텍스트 파일 만들기

SAP 서버 외부에서 수정할 CSV 파일을 만들려면 다음 단계를 따르세요.

  1. SAP GUI에서 트랜잭션 코드 /GOOG/SDK_IMG를 실행합니다.

    또는 트랜잭션 코드 SPRO를 실행한 후 SAP 참조 IMG를 클릭합니다.

  2. ABAP SDK for Google Cloud > 기본 설정 > BigQuery Data Transfer: Settings Maintenance(BigQuery Data Transfer: 설정 유지보수)를 클릭합니다.

  3. BigQuery Data Transfer 설정 유지보수 화면에서 다음 값을 지정합니다.

    • 설정 테이블 필드에서 필드를 지정합니다.
    • 대량 전송 키 필드에서 업데이트할 대량 전송의 ID를 지정합니다.
    • 테이블 이름 필드에서 필드를 공백으로 남겨 모든 테이블의 모든 필드에 대해 작업하거나 테이블 이름을 지정하여 특정 테이블에 대해 작업합니다.
    • 다른 모든 필드를 비워둡니다.
  4. 실행 아이콘을 클릭합니다. BigQuery Data Transfer 설정 유지보수 - 필드 화면이 표시됩니다.

  5. BigQuery 데이터 전송 설정 유지보수 - 필드 화면에서 열 제목을 마우스 오른쪽 버튼으로 클릭하고 드롭다운 메뉴에서 숨기기를 선택하여 다음 목록의 열을 제외한 모든 열을 숨깁니다.

    • SAP 데이터 소스 이름
    • SAP 필드 이름
    • 외부 데이터 요소
    • 외부 필드 이름
    • 필드 설명
    • 압축되지 않은 플래그 전송
  6. 나머지 6개 열이 표시되면 내보내기 아이콘을 클릭합니다.

  7. 내보내기 메뉴에서 다음 옵션 중 하나를 선택합니다.

    • 스프레드시트
    • 로컬 파일. 파일 콘텐츠를 CSV 형식으로 쉽게 변환하려면 파일을 탭이 있는 텍스트 형식으로 저장하는 것이 좋습니다.
  8. 체크표시 아이콘을 클릭하여 기본 필드 매핑을 저장합니다.

스프레드시트 또는 텍스트 파일을 CSV 형식으로 변환

커스텀 트랜잭션 /GOOG/BQTR_SETTINGS를 사용하여 수정된 필드 매핑을 업로드하려면 필드 매핑이 CSV 형식이어야 합니다.

스프레드시트를 사용하는 경우 파일을 업로드하기 전에 스프레드시트를 CSV 파일로 저장하세요.

탭으로 구분된 형식 또는 기타 형식의 로컬 파일을 사용하는 경우 CSV 형식에 맞게 파일을 수정해야 합니다.

예를 들면 다음과 같습니다.

SAP Table,SAP Field Name,External Data Element,External Field Name,Field Description, Send Uncompressed Flag
SAP_TABLE_NAME,SAP_FIELD_NAME1,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME1,BIGQUERY_FIELD_DESCRIPTION1, SEND_UNCOMPRESSED_FLAG1
SAP_TABLE_NAME,SAP_FIELD_NAME2,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME2,BIGQUERY_FIELD_DESCRIPTION2, SEND_UNCOMPRESSED_FLAG2
SAP_TABLE_NAME,SAP_FIELD_NAME3,BIGQUERY_DATA_TYPE,BIGQUERY_FIELD_NAME3,BIGQUERY_FIELD_DESCRIPTION3, SEND_UNCOMPRESSED_FLAG3

CSV 파일 업로드

수정된 CSV 파일을 업로드하려면 다음 단계를 따르세요.

  1. SAP GUI에서 트랜잭션 코드 /GOOG/SDK_IMG를 실행합니다.

    또는 트랜잭션 코드 SPRO를 실행한 후 SAP 참조 IMG를 클릭합니다.

  2. ABAP SDK for Google Cloud > 기본 설정 > BigQuery Data Transfer: Settings Maintenance(BigQuery Data Transfer: 설정 유지보수)를 클릭합니다.

  3. BigQuery Data Transfer: Settings Maintenance(BigQuery Data Transfer: 설정 유지보수) 화면에서 다음 값을 지정합니다.

    • 설정 테이블 필드에서 필드를 지정합니다.
    • 대량 전송 키 필드에서 업데이트할 대량 전송의 ID를 지정합니다.
    • 파일에서 업로드 체크박스를 선택합니다.
  4. 실행 아이콘을 클릭합니다. 업로드할 파일 선택 대화상자가 열립니다.

  5. 업로드할 파일 선택 대화상자에서 수정된 필드 값이 포함된 CSV 파일을 선택합니다.

  6. 열기를 클릭합니다.

  7. 보안 경고를 받은 경우 허용을 클릭합니다. 파일이 로드되고 파일의 수정된 값이 BigQuery 설정 유지보수 - 필드 화면의 해당 행에 나타납니다.

  8. 저장 아이콘을 클릭합니다.

  9. 값이 적용되었는지 확인하려면 CSV 파일의 값을 SAP 시스템에 표시된 값과 비교합니다.

소스 데이터의 오류 처리

BigQuery 스트리밍 API는 SAP용 BigQuery 도구 키트에서 레코드 청크를 수신하면 BigQuery 테이블에 레코드를 삽입하기 전에 데이터 오류를 확인합니다.

대량 전송 설정에서 다음 플래그를 지정하여 데이터 오류가 발견되었을 때 BigQuery API 및 SAP용 BigQuery 툴킷이 응답하는 방법을 제어할 수 있습니다.

  • Skip Invalid Records(SKIP) 플래그
  • Break at First Error Flag(BREAK) 플래그

SKIP 플래그

SKIP 플래그를 지정하면 BigQuery API가 레코드 청크를 수신하고 데이터 오류가 있는 레코드를 발견했을 때 BigQuery API가 오류가 있는 레코드에 대해 삭제 또는 건너뛰기를 수행하고 계속해서 청크의 다른 모든 레코드를 BigQuery 테이블에 삽입합니다.

SKIP 플래그를 지정하지 않으면 BigQuery가 데이터 오류가 있는 레코드를 찾았을 때 BigQuery가 레코드를 BigQuery 테이블에 삽입하지 않고 전체 청크를 삭제합니다. 이 동작은 기본값입니다.

개발 및 QA 환경에서는 SKIP 플래그를 지정하는 것이 좋으며, 프로덕션 환경에서는 권장되지 않습니다.

복제를 구성할 때 /GOOG/BQTR_SETTINGS 트랜잭션에 SKIP 플래그를 지정할 수 있습니다. 사양은 /GOOG/BQTR_MASTR 구성 테이블에 저장됩니다.

SKIP 사양이 BREAK 사양과 상호작용하는 방법을 보려면 SKIPBREAK 상호작용 매트릭스 표를 참조하세요.

BREAK 플래그

BREAK 플래그를 지정하면 BigQuery API를 통해 레코드에서 발견된 데이터 오류가 SAP용 BigQuery 툴킷에 보고되었을 때 SAP용 BigQuery 툴킷이 BigQuery에 대한 레코드 전송을 중지하고 복제 작업을 종료합니다. 이 동작은 기본값입니다.

BREAK 플래그를 지정하지 않으면 BigQuery를 통해 레코드에서 발견된 데이터 오류가 SAP용 BigQuery 툴킷에 보고되었을 때 SAP용 BigQuery 툴킷이 다음 청크를 전송하여 BigQuery에 대한 레코드 전송을 계속하고 복제 작업도 계속 수행됩니다.

프로덕션 환경에서는 BREAK 플래그를 지정하는 것이 좋습니다.

복제를 구성할 때 /GOOG/BQTR_SETTINGS 트랜잭션에 BREAK 플래그를 지정할 수 있습니다. 새 대량 전송 키를 만들면 BREAK 플래그가 기본적으로 사용 설정됩니다.

사양은 /GOOG/BQTR_MASTR 구성 테이블에 저장됩니다.

BREAK 사양이 SKIP 사양과 상호작용하는 방법을 보려면 SKIPBREAK 상호작용 매트릭스 표를 참조하세요.

SKIPBREAK 상호작용 매트릭스 표

다음 방법으로 데이터 오류를 처리하도록 BigQuery Data Transfer 모듈을 구성할 수 있습니다.

SKIP 플래그 BREAK 플래그 동작
FALSE TRUE

BigQuery가 현재 청크의 레코드를 BigQuery 테이블에 삽입하지 않고 현재 레코드 청크를 삭제합니다.

SAP용 BigQuery 툴킷이 현재 부분의 레코드 청크를 더 이상 전송하지 않고 복제 작업을 종료합니다.

기본값이며 권장 설정입니다.

FALSE FALSE

BigQuery가 현재 청크의 레코드를 BigQuery 테이블에 삽입하지 않고 현재 레코드 청크를 삭제합니다.

SAP용 BigQuery 툴킷이 현재 부분에서 남은 모든 레코드 청크를 전송하고 다음 부분을 검색합니다. SAP용 BigQuery 툴킷이 복제 작업을 종료하지 않습니다.

TRUE TRUE

BigQuery가 오류가 포함된 레코드만 삭제하고 현재 청크에서 나머지 레코드는 BigQuery 테이블에 삽입합니다.

SAP용 BigQuery 툴킷이 현재 부분의 레코드 청크를 더 이상 전송하지 않고 복제 작업을 종료합니다.

TRUE FALSE

BigQuery가 오류가 포함된 레코드만 삭제하고 현재 청크에서 나머지 레코드는 BigQuery 테이블에 삽입합니다.

SAP용 BigQuery 툴킷이 현재 부분에서 남은 모든 레코드 청크를 전송하고 다음 부분을 검색합니다. SAP용 BigQuery 툴킷이 복제 작업을 종료하지 않습니다.

SAP 사전 객체 구조 변경

이 섹션에서는 SAP에서 사전 객체 정의 변경사항을 처리하는 방법을 설명합니다.

사전 객체에 열 추가

사전 객체에 열을 추가하는 경우 다음을 실행합니다.

  1. 데이터 로드 클래스 /GOOG/CL_BQTR_DATA_LOAD를 사용하는 맞춤 데이터 복제 애플리케이션을 중지합니다.
  2. SAP의 사전 객체에 새 열을 추가합니다.
  3. 원하는 경우 트랜잭션 /GOOG/BQTR_SETTINGS에서 필드 수준 매핑을 업데이트합니다.
  4. 맞춤 데이터 복제 애플리케이션을 다시 시작합니다.
  5. BigQuery에서 복제 결과의 유효성을 검사합니다.

사전 객체에서 열 삭제

사전 객체에서 기존 열을 삭제하려면 다음 단계를 따르세요.

  1. 데이터 로드 클래스 /GOOG/CL_BQTR_DATA_LOAD를 사용하는 맞춤 데이터 복제 애플리케이션을 중지합니다.
  2. 사전 객체에서 열을 삭제합니다.
  3. BigQuery에서 대상 BigQuery 테이블의 열을 삭제합니다. 기존 테이블에서 열을 삭제하는 단계에 대한 자세한 내용은 BigQuery 문서를 참고하세요.
  4. 원하는 경우 트랜잭션 /GOOG/BQTR_SETTINGS에서 필드 수준 매핑을 업데이트합니다.
  5. 맞춤 데이터 복제 애플리케이션을 다시 시작합니다.
  6. BigQuery에서 복제 결과의 유효성을 검사합니다.

기존 열의 데이터 유형 변경

SAP 사전 객체에서 기존 열의 데이터 유형을 변경할 때는 대상 BigQuery 테이블을 사용하여 데이터 유형을 호환되는 또는 호환되지 않는 데이터 유형으로 변경하는지 여부에 따라 특정 단계를 수행해야 합니다.

기존 데이터 유형과 기존 열의 새 데이터 유형이 대상 BigQuery 테이블의 동일한 데이터 유형에 매핑되면 데이터 유형은 대상 BigQuery 테이블의 데이터 유형과 호환됩니다. 예를 들어 열의 데이터 유형이 소스 테이블의 INT1에서 INT2로 변경되면 모든 데이터 유형이 대상 BigQuery 테이블의 데이터 유형 INTEGER와 호환됩니다.

BigQuery Data Transfer 모듈의 데이터 유형 매핑에 대한 자세한 내용은 데이터 유형 매핑을 참고하세요.

데이터 유형을 호환되는 데이터 유형으로 변경

기존 열의 데이터 유형을 호환되는 데이터 유형으로 변경하려면 다음 단계를 따르세요.

  1. 원하는 경우 데이터 로드 클래스 /GOOG/CL_BQTR_DATA_LOAD를 사용하는 맞춤 데이터 복제 애플리케이션을 중지합니다.
  2. 데이터 유형을 소스 시스템에서 호환되는 데이터 유형으로 변경합니다.
  3. 원하는 경우 트랜잭션 /GOOG/BQTR_SETTINGS에서 필드 수준 매핑을 업데이트합니다.
  4. 맞춤 데이터 복제 애플리케이션을 중지한 경우 애플리케이션을 다시 시작합니다.
  5. BigQuery에서 복제 결과의 유효성을 검사합니다.

데이터 유형을 호환되지 않는 데이터 유형으로 변경

기존 열의 데이터 유형을 호환되지 않는 데이터 유형으로 변경하려면 다음 단계를 따르세요.

  1. 데이터 로드 클래스 /GOOG/CL_BQTR_DATA_LOAD를 사용하는 맞춤 데이터 복제 애플리케이션을 중지합니다.
  2. BigQuery에서 대상 테이블을 삭제합니다.
  3. 소스 시스템의 데이터 유형을 변경합니다.
  4. 원하는 경우 트랜잭션 /GOOG/BQTR_SETTINGS에서 필드 수준 매핑을 업데이트합니다.
  5. 맞춤 데이터 복제 애플리케이션을 시작합니다. 필요한 경우 기존 데이터의 초기 로드를 시작해야 할 수 있습니다.

수정 종료

SAP용 BigQuery 툴킷은 해당 코드에서 ABAP 개발자가 커스텀 기능 추가를 위해 코드를 삽입할 수 있는 몇 가지 수정 지점을 제공합니다.

클래스

다음 표에서는 수정 지점에서 지원되는 함수, 메서드, 수정 지점이 포함된 클래스를 보여줍니다.

함수 클래스 메서드 스팟 옵션
외부 필드 이름, 데이터 유형 등의 필드 매핑을 업데이트합니다. /GOOG/CL_BQTR_DATA_LOAD_BASE CREATE_FLD_MAPPINGS /GOOG/ES_BQTR_DATA_LOAD_BASE /GOOG/UPDATE_FIELD_MAPPING
필드를 추가하거나 삭제하여 필드 테이블의 매핑을 업데이트합니다. /GOOG/CL_BQTR_DATA_LOAD_BASE CREATE_FLD_MAPPINGS /GOOG/ES_BQTR_DATA_LOAD_BASE /GOOG/UPDATE_FIELD_MAPPINGS
필드가 대상 필드로 변환되기 전 소스 필드의 값을 변경합니다. /GOOG/CL_BQTR_DATA_LOAD FILL_TARGET_RECORDS /GOOG/ES_BQTR_DATA_LOAD /GOOG/CHANGE_SOURCE_FIELD
소스 필드가 대상 테이블의 대상 필드로 변환된 후 대상 필드의 값을 변경합니다. /GOOG/CL_BQTR_DATA_LOAD FILL_TARGET_RECORDS /GOOG/ES_BQTR_DATA_LOAD /GOOG/FILL_TARGET_FIELD
소스-대상 테이블 변환 중 소스 테이블에 존재하지 않는 필드를 대상 테이블에 추가합니다. /GOOG/CL_BQTR_DATA_LOAD FILL_TARGET_RECORDS /GOOG/ES_BQTR_DATA_LOAD /GOOG/FILL_EXTRA_FIELD
BigQuery 테이블이 생성되기 전 BigQuery 스키마 필드를 준비합니다. /GOOG/CL_BQTR_CLIENT_BQ_BASE PREP_BQ_TABLE_SCHEMA /GOOG/ES_BQTR_CLIENT_BQ /GOOG/PREPARE_SCHEMA_FIELD
BigQuery 서버 측에서 발생한 HTTP 오류의 경우 문제 해결을 위해 BigQuery API에 대한 HTTP 호출 이후로 로깅 데이터를 수집할 수 있습니다. /GOOG/CL_BQTR_CLIENT_BQ_REPL INSERT_TABLEDATA /GOOG/ES_BQTR_CLIENT_BQ_REPL /GOOG/LOG_INSERT_ERROR

보고서

다음 표에는 수정 지점에서 지원되는 함수, 메서드, 수정 지점이 포함된 보고서가 나와 있습니다.

함수 보고서 메서드 스팟 옵션
BigQuery Data Transfer 설정 프로그램에 권한 확인을 추가합니다. /GOOG/R_BQTR_SETTINGS AUTHORITY_CHECK /GOOG/ES_BQTR_SETTINGS /GOOG/AUTHORITY_CHECK

고급 설정

원하는 경우 SAP용 BigQuery 툴킷의 고급 설정을 수정할 수 있습니다. 새 값이 성능에 미치는 영향에 대한 포괄적인 분석을 마친 후에만 고급 설정 매개변수를 수정하는 것이 좋습니다. SAP용 BigQuery 도구 키트의 새로운 고급 설정이 오류 및 성능 문제를 일으키지 않는지 확인해야 합니다.

SAP용 BigQuery 도구 키트의 고급 설정은 시스템 수준에서 적용되며 모든 대량 전송 키에 공통적입니다. 고급 설정 매개변수를 수정하지 않으면 SAP용 BigQuery 툴킷이 기본 설정으로 작동합니다.

고급 설정 매개변수를 수정하려면 다음 단계를 따르세요.

  1. SAP GUI에서 트랜잭션 코드 /GOOG/SDK_IMG를 실행합니다.

    또는 트랜잭션 코드 SPRO를 실행한 후 SAP 참조 IMG를 클릭합니다.

  2. ABAP SDK for Google Cloud > 기본 설정 > BigQuery Data Transfer: Settings Maintenance(BigQuery Data Transfer: 설정 유지보수)를 클릭합니다.

  3. 설정 테이블 드롭다운 메뉴에서 매개변수를 선택합니다.

  4. 실행 아이콘을 클릭합니다. BigQuery Data Transfer 설정 유지보수 - 매개변수 화면이 표시됩니다.

  5. 행 삽입 아이콘을 클릭합니다.

  6. 표시된 행에서 다음 설정을 지정합니다.

    1. 매개변수 이름 필드에 매개변수의 이름을 입력합니다. 매개변수 설명이 자동으로 채워집니다.
    2. 매개변수 값 필드에 값을 입력합니다.

      고급 설정 매개변수에 대해 알아보려면 고급 설정 매개변수를 참조하세요.

  7. 저장을 클릭합니다.

    고급 설정이 /GOOG/BQ_PARAM 구성 테이블에 레코드로 저장되고 변경한 사람, 변경 시간, 변경 위치 필드가 자동으로 채워집니다.

고급 설정 매개변수

다음 표에는 SAP용 BigQuery 툴킷의 고급 설정 매개변수가 나와 있습니다.

매개변수 이름 설명 기본값 유효한 값
CHUNK_SIZE_DEF 이 설정은 SAP용 BigQuery 툴킷이 지원하는 기본 청크 크기입니다.
청크 크기가 설정에서 유지되지 않으면 기본 청크 크기가 사용됩니다.
10,000 값이 BigQuery Quota 한도 내에 있어야 합니다.
PERC_REDUC_DEF 청크 크기 백분율 감소.
동적 청크 크기가 사용 설정되었으면 이상적인 청크 크기에 도달하고 청크 데이터가 BigQuery에 성공적으로 전송될 때까지 이 백분율만큼 청크 크기가 줄어듭니다.
50 값은 1부터 99까지여야 합니다.

지원 받기

Google Cloud 는 SAP용 BigQuery 툴킷의 설치, 구성, 운영, 유지보수와 관련된 문제 및 질문에 대한 지원을 제공합니다. 하지만 지원은 툴킷 자체로 제한됩니다.

Google Cloud 는 네트워크 인프라, 데이터베이스, 운영체제, 서드 파티 소프트웨어와 같은 다른 환경 구성요소를 지원하지 않습니다. SAP용 BigQuery 툴킷 이외의 환경 구성요소와 관련된 문제는 적절한 공급업체 또는 지원 제공업체에 문의하세요.

Operational Data Provisioning (ODP) 및 SAP Landscape Transformation (SLT)과 같이 SAP에서 제공하는 기능의 경우 SAP 지원팀에 문의하여 지원을 받으세요.

SAP용 BigQuery 툴킷 문제를 해결하려면 SAP용 BigQuery 툴킷 문제 해결을 참고하세요.

ABAP SDK for Google Cloud 문제를 해결하는 데 도움이 필요한 경우 다음을 수행하세요.