SAP Table Batch Source 플러그인 사용

이 가이드에서는 SAP Table Batch Source 플러그인을 사용하는 데이터 파이프라인을 배포, 구성, 실행하는 방법을 설명합니다.

SAP Table Batch Source 플러그인은 Cloud Data Fusion을 사용하여 SAP 애플리케이션에서 일괄 데이터 통합을 지원합니다. 코딩 없이 SAP 테이블 및 뷰에서 일괄 데이터 전송을 구성하고 실행할 수 있습니다.

추출에 지원되는 SAP 애플리케이션, 테이블, 뷰는 FAQ를 참조하세요. Google Cloud 기반 SAP에 대한 자세한 내용은 Google Cloud 기반 SAP 개요를 참조하세요.

목표

  • SAP ERP 시스템을 구성합니다(제공된 SAP 전송 설치).
  • Cloud Data Fusion 환경에 플러그인을 배포합니다.
  • Cloud Data Fusion 및 SAP Table Batch Source를 사용하여 SAP 데이터 통합을 위한 데이터 파이프라인을 만듭니다.

시작하기 전에

이 플러그인을 사용하려면 다음 영역에 대한 도메인 지식이 필요합니다.

사용자 역할

이 페이지의 구성 작업을 수행하려면 SAP 시스템 및 Google Cloud를 변경해야 합니다. 해당 시스템의 관리자와 협력하여 구성을 수행해야 합니다.

표 1: 사용자 역할

사용자 유형 설명
SAP 관리자 이 역할이 할당된 사용자는 SAP 시스템의 관리자입니다. 이 사용자는 소프트웨어를 다운로드하기 위해 SAP 서비스 사이트에 액세스할 수 있습니다.
GCP 관리자 이 역할이 할당된 사용자는 Google Cloud 계정의 관리자입니다.
CDF 사용자 이 역할이 할당된 사용자는 데이터 파이프라인을 설계하고 실행할 수 있는 권한이 있습니다.
SAP 사용자 이 역할이 할당된 사용자는 SAP 시스템에 연결할 수 있는 권한이 있습니다.

SAP ERP 시스템 구성

SAP Table Batch Source는 데이터를 추출하려는 각 SAP 서버에 설치해야 하는 RFM(원격 함수 모듈)을 사용합니다. 이 RFM은 SAP 전송으로 제공됩니다.

SAP 시스템을 구성하려면 다음 단계를 따르세요.

  1. Cloud Data Fusion 사용자는 SAP 전송이 포함된 ZIP 파일을 다운로드하여 SAP 관리자에게 제공해야 합니다. 다운로드하려면 허브에서 플러그인과 함께 제공된 링크를 사용하세요. Cloud Data Fusion 설정을 참조하세요.
  2. SAP 관리자는 SAP 전송을 SAP 시스템으로 가져와 생성된 객체를 확인해야 합니다. 설치에 대한 자세한 내용은 SAP 전송 설치를 참조하세요.

SAP 전송 설치

SAP 구성요소는 Cloud Data Fusion에서 데이터 파이프라인을 설계하고 실행하는 데 필요합니다. 이러한 구성요소는 하나의 zip 파일로 보관처리된 SAP 전송 파일로 제공됩니다(전송 파일 요청 1개는 cofile 1개와 데이터 파일 1개로 구성됨).

전송 요청 ID와 관련 파일은 다음 표에 나와 있습니다.

표 2: SAP 전송

전송 ID Cofile 데이터 파일
ABAK900043 K900043.ABA R900043.ABA

전송을 SAP 시스템으로 가져온 후 RFC 지원 함수 모듈 /GOOG/RFC_READ_TABLE의 생성을 확인합니다.

SAP 전송을 설치하려면 다음 단계를 따르세요.

1단계: 전송 요청 파일 업로드

  1. SAP 시스템에 SAP 시스템 관리자로 로그인합니다.
  2. cofile을 /usr/sap/trans/cofiles 폴더에 복사합니다.
  3. 데이터 파일을 /usr/sap/trans/data 폴더에 복사합니다.

2단계: 전송 요청 파일 가져오기

SAP 관리자는 다음 옵션 중 하나를 사용하여 전송 요청 파일을 가져올 수 있습니다.

옵션 1: SAP 전송 관리 시스템을 사용하여 전송 요청 파일 가져오기
  1. SAP 시스템에 SAP 관리자로 로그인합니다.
  2. 트랜잭션 STMS를 입력합니다.
  3. 개요 > 가져오기를 클릭합니다.
  4. 큐 열에서 현재 SID를 더블클릭합니다.
  5. 기타 > 기타 요청 > 추가를 클릭합니다.
  6. 전송 요청 ID를 선택하고 계속을 클릭합니다.
  7. 가져오기 큐에서 전송 요청을 선택한 다음 요청 > 가져오기를 클릭합니다.
  8. 클라이언트 번호를 입력합니다.
  9. 옵션 탭에서 원본 덮어쓰기잘못된 구성요소 버전 무시(가능한 경우)를 선택합니다.

    (선택사항) 나중에 전송 다시 가져오기를 예약하려면 나중에 가져올 수 있도록 큐에 전송 요청 두기전송 요청 다시 가져오기을 선택합니다. 이는 SAP 시스템 업그레이드 및 백업 복원에 유용합니다.

  10. 계속을 클릭합니다.

  11. 가져오기를 확인하려면 SE80SU01과 같은 트랜잭션을 사용합니다.

옵션 2: 운영체제 수준에서 전송 요청 파일 가져오기
  1. SAP 시스템에 SAP 시스템 관리자로 로그인합니다.
  2. 다음 명령어를 실행하여 가져오기 버퍼에 적절한 요청을 추가합니다.

    tp addtobuffer TRANSPORT_REQUEST_ID SID
    

    예: tp addtobuffer IB1K903958 DD1

  3. 다음 명령어를 실행하여 전송 요청을 가져옵니다.

    tp import TRANSPORT_REQUEST_ID SID client=NNN U1238
    

    NNN을 클라이언트 번호로 바꿉니다. 예: tp import IB1K903958 DD1 client=800 U1238

  4. SE80SU01과 같은 적절한 트랜잭션을 사용하여 함수 모듈 및 승인 역할을 성공적으로 가져왔는지 확인합니다.

필수 SAP 승인

Cloud Data Fusion에서 데이터 파이프라인을 실행하려면 SAP 사용자가 필요합니다. SAP 사용자는 Communications 또는 Dialog 유형이어야 합니다. SAP 대화상자 리소스를 사용하지 않으려면 Communications 유형을 사용하는 것이 좋습니다. SAP 트랜잭션 코드 SU01을 사용하여 사용자를 만들 수 있습니다.

SAP에서 승인 역할을 만들려면 다음 단계를 따르세요.

  1. SAP GUI에서 Transaction code PFCG를 입력하여 Role Maintenance 창을 엽니다.
  2. 역할 필드에 역할 이름을 입력합니다.

    예: zcdf_role

  3. 단일 역할을 클릭합니다.

    역할 만들기 창이 열립니다.

  4. 설명 필드에 설명을 입력하고 저장을 클릭합니다.

    예를 들면 Authorizations for Cloud Data Fusion SAP Table plugin입니다.

  5. 승인 탭을 클릭합니다. 창 제목이 역할 변경으로 변경됩니다.

  6. 승인 데이터 수정 및 프로필 생성에서 승인 데이터 변경을 클릭합니다.

    템플릿 선택 창이 열립니다.

  7. 템플릿을 선택하지 않음을 클릭합니다.

    역할 변경: 승인 창이 열립니다.

  8. 직접 만들기를 클릭합니다.

  9. 다음 SAP 승인 표에 표시된 승인을 제공합니다.

  10. 저장을 클릭합니다.

  11. 승인 역할을 활성화하려면 생성 아이콘을 클릭합니다.

표 3: SAP 승인

객체 클래스 객체 클래스 텍스트 승인 객체 승인 객체 텍스트 승인 텍스트
AAAB 애플리케이션 간 승인 객체 S_RFC 애플리케이션 간 승인 객체 RFC_TYPE 액세스가 허용되는 RFC 객체 유형 FUNC
AAAB 애플리케이션 간 승인 객체 S_RFC 애플리케이션 간 승인 객체 RFC_NAME 액세스가 허용되는 RFC 객체 이름 DDIF_FIELDINFO_GET,
RFCPING,
RFC_GET_FUNCTION_INTERFACE,
/GOOG/RFC_READ_TABLE,
SAPTUNE_GET_SUMMARY_STATISTIC,
TH_WPINFO
AAAB 애플리케이션 간 승인 객체 S_RFC 애플리케이션 간 승인 객체 ACTVT 활동 16
AAAB 애플리케이션 간 승인 객체 S_TCODE 트랜잭션 시작 시 트랜잭션 코드 확인 TCD 거래 코드 SM50
BC_A 베이직: 관리 S_TABU_NAM 일반 표준 도구에 의한 테이블 액세스 ACTVT 활동 03
BC_A 베이직: 관리 S_TABU_NAM 일반 표준 도구에 의한 테이블 액세스 테이블 테이블 이름 *
BC_A 베이직: 관리 S_ADMI_FCD 시스템 승인 S_ADMI_FCD 시스템 관리 기능 ST0R

Cloud Data Fusion 설정

Cloud Data Fusion 인스턴스와 SAP 서버 간에 통신이 사용 설정되어 있는지 확인합니다. 비공개 Cloud Data Fusion 인스턴스의 네트워크 피어링 단계를 따라야 합니다.

플러그인에 대해 Cloud Data Fusion 환경을 구성하려면 다음 단계를 따르세요.

  1. Cloud Data Fusion 사용자는 허브에서 SAP Table Batch Source 플러그인을 다운로드해야 합니다. 플러그인은 버전 6.3.0부터 사용할 수 있습니다.

    1. (선택사항) 2021년 3월 22일 이전에 6.3.0 인스턴스를 만든 경우 허브에 플러그인이 표시되지 않을 수 있습니다. 이를 사용 설정하려면 다음 명령어를 실행합니다.

      SAP Hub에 HUB_URLS 변수를 사용합니다. 의료 가속기를 사용하는 경우 HUB_URLS 변수를 포함합니다(명령어의 댓글 참조).

      # Enter values for these variables
      PROJECT=PROJECT_ID
      REGION=REGION_CODE
      INSTANCE=INSTANCE
      
      # Select one of the following HUB_URLS
      HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub"
      # HUB_URLS="https://hub-cdap-io.storage.googleapis.com/sap-hub+https://storage.googleapis.com/b999ec76-9e36-457b-bf30-753cb13a8c98" # Uncomment this line if the Healthcare accelerator is enabled
      
      # Run these commands (NOTE: This restarts your instance after the update)
      curl -X PATCH -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE -d "{ 'options':{'market.base.urls':\"$HUB_URLS\"}}"
      sleep 300 # Wait for update operation to succeed
      curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" https://datafusion.googleapis.com/v1/projects/$PROJECT/locations/$REGION/instances/$INSTANCE:restart
      
    2. 허브를 클릭하고 SAP 탭을 선택합니다.

    3. SAP Table Batch Source 플러그인을 배포합니다.

  2. 소스 섹션의 팔레트에 플러그인이 표시되는지 확인합니다.

  3. SAP 관리자는 SAP 지원 사이트에서 다음과 같은 JCo 아티팩트를 다운로드하여 GCP 관리자에게 제공해야 합니다.

    지원되는 최소 JCo 버전은 3.1.2입니다.

    • One Platform과 별개(sapjco3.jar)
    • One Platform에 종속(libsapjco3.so)

    파일을 다운로드하려면 다음 단계를 따르세요.

    1. SAP 커넥터로 이동합니다.
    2. SAP 자바 커넥터/도구 및 서비스를 클릭합니다. 다운로드용 플랫폼별 링크를 확인할 수 있습니다.
    3. CDF 인스턴스를 실행할 플랫폼을 선택합니다.
      1. 클러스터의 VM에 표준 Google Cloud 이미지(Cloud Data Fusion의 기본값)를 사용하는 경우 Linux for Intel compatible processors 64-bit x86(인텔 호환 프로세서 64비트 x86용 Linux)을 선택합니다.
      2. 커스텀 이미지를 사용하는 경우 해당 플랫폼을 선택합니다.
  4. GCP 관리자는 JCo 파일을 읽을 수 있는 Cloud Storage 버킷에 복사해야 합니다. Cloud Data Fusion 사용자에게 버킷 경로를 제공합니다.

  5. GCP 관리자는 설계 환경에 대해서는 Cloud Data Fusion 서비스 계정에, 실행 환경에 대해서는 Dataproc 서비스 계정에 두 파일의 읽기 액세스 권한을 부여해야 합니다. 자세한 내용은 Cloud Data Fusion 서비스 계정을 참조하세요.

  6. 버킷 경로는 해당하는 플러그인 속성 SAP JCo Library GCS Path에 제공되어야 합니다.

플러그인 구성

SAP Table Batch Source 플러그인은 SAP 테이블 또는 뷰의 콘텐츠를 읽습니다(추가 지원 세부정보는 FAQ 섹션 참조). 다양한 레코드 필터링 옵션을 사용할 수 있습니다. 다음 스크린샷은 플러그인에서 사용 가능한 모든 속성을 보여줍니다.

SAP 테이블 속성

SAP Table Batch Source에 다음 속성을 구성할 수 있습니다.

기본

참조 이름: 계보, 주석 추가 메타데이터 등 이 소스를 고유하게 식별하는 데 사용되는 이름.
SAP 클라이언트: 사용할 SAP 클라이언트(예: 100).
SAP 언어: SAP 로그온 언어(예: EN).
연결 유형: SAP 연결 유형(직접 또는 부하 분산). 하나의 유형을 선택하면 다음과 같이 사용 가능한 필드가 변경됩니다.

직접 연결

SAP Application Server Host: SAP 서버 이름 또는 IP 주소.
SAP System Number: SAP 시스템 번호(예: 00).
SAP Router: 라우터 문자열.

부하 분산 연결

SAP Message Server Host: SAP 메시지 호스트 이름 또는 IP 주소.
SAP Message Server Service or Port Number: SAP 메시지 서버 서비스 또는 포트 번호(예: sapms02).
SAP System ID(SID): SAP 시스템 ID(예: N75).
SAP Logon Group Name: SAP 로그온 그룹 이름(예: PUBLIC).
SAP Table/View Name: SAP 테이블/뷰 이름(예: MARA).

스키마 가져오기 버튼: 플러그인은 SAP의 메타데이터를 기반으로 SAP에서 스키마를 생성하고, SAP 데이터 유형을 해당 Cloud Data Fusion 데이터 유형에 자동으로 매핑합니다(유효성 검사와 동일한 기능).

사용자 인증 정보

SAP Logon Username(SAP 로그온 사용자 이름): SAP 사용자 이름. 권장: SAP Logon Username(SAP 로그온 사용자 이름)이 주기적으로 변경되는 경우 매크로를 사용하세요.
SAP Logon Password(SAP 로그온 비밀번호): SAP 사용자 비밀번호. 권장: 사용자 비밀번호와 같은 민감한 값에 보안 매크로를 사용하세요.

SAP JCo 세부정보

GCP Project ID: 프로젝트를 고유하게 식별하는 Google Cloud 프로젝트 ID. Google Cloud Console의 대시보드에서 확인할 수 있습니다.
SAP JCo Library GCS Path: 사용자가 업로드한 SAP JCo 라이브러리 파일을 포함하는 Cloud Storage 경로.

고급

필터 옵션: SQL WHERE 절의 필터링 조건으로 사용될 OpenSQL 구문에 지정된 조건(예: KEY6 LT '25'). 정의된 값 집합 또는 일정 범위의 값을 포함하는 조건에 따라 레코드를 추출할 수 있습니다.

가져올 행 수: 추출 레코드 수를 제한하려면 이 값을 사용합니다. 양수를 입력하세요. 0이거나 비워 두면 지정된 테이블에서 모든 레코드를 추출합니다. 필터 옵션에 따라 사용할 수 있는 실제 레코드 수보다 큰 양수가 제공되면 사용 가능한 레코드만 추출됩니다.

생성할 분할 수: 이 값을 사용하여 테이블 레코드를 동시에 추출할 파티션을 만듭니다. 양수를 입력하세요. 런타임 엔진은 테이블 레코드를 추출하는 동안 지정된 수의 파티션(및 SAP 연결)을 만듭니다. 이 속성을 16보다 큰 수로 설정할 때는 주의해야 합니다. 동시 로드 수가 많을수록 SAP와의 동시 연결이 증가하기 때문입니다. 8~16 사이의 값을 사용하는 것이 좋습니다.

값이 0이거나 비워 두면 시스템에서 사용 가능한 SAP 작업 프로세스 수, 추출할 레코드, 패키지 크기를 기준으로 적절한 값을 자동으로 선택합니다.

패키지 크기: 단일 SAP 네트워크 호출에서 추출할 레코드 수입니다. 네트워크 추출이 호출될 때마다 SAP가 메모리에 저장하는 레코드 수입니다. 데이터를 추출하는 데이터 파이프라인이 여러 개이면 메모리 사용량이 최고치에 이를 수 있고 Out of Memory 오류로 인해 실패할 수 있습니다. 이 속성을 설정할 때 주의하세요.

양수를 입력하세요. 0이거나 비어 있는 경우 플러그인은 추출할 표준 값 70000 또는 추출할 레코드 수가 70000 미만인 경우 적절하게 계산된 값을 사용합니다.

데이터 파이프라인이 Out of Memory 오류로 인해 실패하면 패키지 크기를 줄이거나 SAP 작업 프로세스에 사용할 수 있는 메모리를 늘리세요.

데이터 유형 매핑

표 4: Cloud Data Fusion 유형에 매핑되는 SAP 데이터 유형

ABAP 유형 설명(SAP) CDAP 데이터 유형
숫자
b 1바이트 정수(INT1) INT
s 2바이트 정수(INT2) INT
i 4바이트 정수(INT4) INT
(int8)
8
8바이트 정수(INT8) LONG
p BCD 형식의 압축 번호(DEC) DECIMAL
(decfloat16)
a
10진 부동 소수점 8바이트 IEEE 754r(DF16_DEC, DF16_RAW) DECIMAL
(decfloat34)
e
10진 부동 소수점 16바이트 IEEE 754r(DF34_DEC, DF34_RAW) DECIMAL
f 바이너리 부동 소수점 수(FLTP) DOUBLE
문자
c 문자 문자열(CHAR/LCHR) STRING
string 문자 문자열(SSTRING, GEOM_EWKB) STRING
string 문자 문자열 CLOB(STRING) BYTES
n 숫자 텍스트(NUMC/ACCP) STRING
바이트
x 바이너리 데이터(RAW/LRAW) BYTES
xstring 바이트 문자열 BLOB(RAWSTRING) BYTES
날짜/시간
d 날짜(DATS) DATE
t 시간(TIMS) TIME
utclong/utcl 타임스탬프 TIMESTAMP

유효성 검사

오른쪽 상단에서 유효성 검사 또는 스키마 가져오기를 클릭합니다.

플러그인은 SAP에서 메타데이터를 기반으로 스키마를 생성합니다. SAP 데이터 유형을 해당하는 Cloud Data Fusion 데이터 유형에 자동으로 매핑합니다.

데이터 파이프라인 실행

  1. 파이프라인을 배포한 후 상단 중앙 패널에서 구성을 클릭합니다.
  2. 리소스를 선택합니다.
  3. 필요한 경우 파이프라인에 사용되는 전체 데이터 크기와 변환 수를 기반으로 실행자 CPU메모리를 변경합니다.
  4. 저장을 클릭합니다.
  5. 데이터 파이프라인을 시작하려면 실행을 클릭합니다.

성능 최적화

플러그인은 Cloud Data Fusion의 동시 로드 기능을 사용합니다. 다음 가이드라인은 런타임 환경을 구성하여 원하는 수준의 동시 로드와 성능을 얻기 위해 충분한 리소스를 런타임 엔진에 제공하는 데 도움이 됩니다.

SAP 구성

권장: 대화상자 사용자가 아닌 SAP Communication 사용자를 사용합니다(SAP 시스템 리소스를 덜 사용함). 또한 메시지 서버를 가로 모드에서 사용할 수 있는 경우, 직접 연결이 아닌 부하 분산 SAP 연결을 사용합니다.

분할 수 및 패키지 크기에 대한 값을 지정하면 플러그인은 사용 가능한 SAP 작업 프로세스 및 메모리를 소진하지 않도록 이러한 값을 조정할 수 있습니다. 다음은 사용되는 SAP 리소스의 상한값입니다.

  • 사용 가능한 작업 프로세스의 50%
  • 작업 프로세스당 사용 가능한 메모리의 70%

플러그인 구성

권장사항: SAP 시스템의 메모리 설정에 익숙하지 않은 경우 생성할 분할 수패키지 크기는 비워 둡니다. 기본적으로 성능 향상을 위해 이러한 값은 자동으로 조정됩니다.

파이프라인 실행 시 최적의 성능을 보장하려면 다음 속성을 사용합니다.

  • 생성할 분할 수: Cloud Data Fusion 측에서 동시 로드를 직접 제어합니다. 런타임 엔진은 테이블 레코드를 추출하는 동안 지정된 수의 파티션(및 SAP 연결)을 만듭니다. 8~16 사이의 값을 사용하는 것이 좋지만 SAP 측에서 적절한 구성으로 최대 30 또는 64까지 증가할 수 있습니다(SAP의 작업 프로세스에 적합한 메모리 리소스 할당).

    값이 0이거나 비워 두면 시스템에서 사용 가능한 SAP 작업 프로세스 수, 추출할 레코드, 패키지 크기를 기준으로 적절한 값을 자동으로 선택합니다.

  • 패키지 크기: 단일 SAP 네트워크 호출에서 추출할 레코드 수입니다. 추출이 호출될 때마다 SAP가 메모리에 저장하는 레코드 수입니다. SAP 시스템이 작업 프로세스에 충분한 메모리를 할당하는 경우 이 값을 기본값(70000)에서 늘립니다. 대부분의 기본 구성에서는 최대 100000까지 늘릴 수 있지만 크기가 커지면 SAP 시스템을 재구성해야 할 수 있습니다.

Cloud Data Fusion 리소스 설정

권장: 실행자당 1 CPU와 4 GB의 메모리를 사용합니다(이 값은 각 실행자 프로세스에 적용됨). 구성 > 리소스 대화상자에서 설정합니다.

Dataproc 클러스터 설정

권장: 작업자 간에 총 CPU를 원래 분할 수보다 많이 할당합니다(플러그인 구성 섹션 참조). 예를 들어 분할이 16개 있는 경우 모든 작업자에 걸쳐 총 20개 이상의 CPU를 정의합니다(즉, 4 개의 CPU 오버헤드를 조정에 사용함).

FAQ

지원되는 SAP 제품과 버전은 무엇인가요?

지원되는 소스는 SAP ERP6/NW7.5 및 SAP S4HANA 1909 및 2020입니다.

추출이 지원되는 SAP 테이블 및 뷰 유형은 무엇인가요?

플러그인은 SAP 투명 테이블 및 뷰, CDS 뷰, HANA 뷰를 지원합니다. 객체는 데이터베이스 레이어가 아닌 SAP 애플리케이션 레이어를 통해 읽습니다. 풀 및 클러스터 테이블은 지원되지 않습니다.

데이터 볼륨 또는 레코드 너비에 제한이 있나요?

지원되는 행 너비는 30KB로 제한됩니다. 추출된 레코드 수 또는 테이블 크기에는 제한이 없습니다.

예상되는 플러그인 처리량은 얼마인가요?

적절하게 구성된 환경의 경우 플러그인은 EKKO와 같은 중간 크기의 테이블에서 초당 9,000개의 행, ACDOCA와 같은 대규모 테이블에서 초당 6,500개의 행을 추출할 수 있습니다.

추출 성능을 최적화하려면 어떻게 해야 하나요?

성능 최적화를 참조하세요.

델타 추출이 지원되나요?

델타(마지막 실행 이후 데이터) 추출은 플러그인에서 직접 지원되지 않습니다. 트랜잭션 테이블의 타임스탬프 필드를 기준으로 레코드를 필터링하는 데이터 파이프라인을 정의할 수 있습니다(예: ACDOCA 테이블의 TIMESTAMP 필드, EKKO 테이블의 AEDAT 필드). 필터링 조건을 나타내려면 플러그인 속성 필터 옵션을 사용합니다.

예시: TIMESTAMP >= '20210130100000' AND TIMESTAMP <= ' 20210226000000' (ACDOCA 테이블의 레코드를 2021년 1월 30일 10:00(UTC)~2021년 2월 26일 00:00(UTC)의 TIMESTAMP로 선택)

오류 시나리오

런타임 시 플러그인은 Cloud Data Fusion 데이터 파이프라인 로그에 로그 항목을 작성합니다. 이 항목에는 쉽게 식별할 수 있도록 CDF_SAP 프리픽스가 붙습니다.

설계 시 사용자가 플러그인 설정을 확인하면 메시지가 속성 영역에 빨간색으로 강조표시됩니다. 특정 속성 유효성 검사 메시지는 속성의 사용자 항목 상자 바로 아래에 빨간색으로 강조표시됩니다. 이러한 속성 유효성 검사 오류 메시지에는 특정 메시지 ID가 없습니다.

일반적인 오류 메시지의 예시:

오류 메시지

다음 표는 몇 가지 일반적인 오류 메시지를 나열합니다(자리표시자 텍스트를 런타임 시 실제 값으로 대체).

메시지 ID 메시지 권장 조치
해당 없음(UI) Required property UI_CONNECTION_PROPERTY_LABEL for connection type UI_CONNECTION_TYPE_RADIO_OPTION. 실제 값 또는 매크로 변수를 입력하세요.
해당 없음(UI) Invalid value for property UI_ADVANCED_OPTIONAL_PROPERTY_LABEL. 음수가 아닌 정수(소수점 없는 0 이상의 값) 또는 매크로 변수를 입력합니다.
CDF_SAP_01412 One or more SAP JCo library files are missing or of incompatible version. 필수 JCo 라이브러리(sapjco3.jar) 및 관련 OS 종속 공유 라이브러리(예: libsapjco3.so)가 동일 버전에 해당하고 사용자 가이드에 문서화한 대로 Cloud Data Fusion에 업로드되었는지 확인합니다.
CDF_SAP_01500 Unable to retrieve SAP destination from Destination Manager. Cannot initiate connectivity test with SAP.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
메시지에 표시된 근본 원인을 확인하고 적절한 조치를 취합니다.
CDF_SAP_01404 SAP connection test failed. Please verify the connection parameters.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
메시지에 표시된 근본 원인을 확인하고 적절한 조치를 취합니다.
CDF_SAP_01512 Unable to retrieve JCo Repository from SAP Destination.
Root Cause: SAP_ERROR_CODE - SAP root cause message
메시지에 표시된 근본 원인을 확인하고 적절한 조치를 취합니다.
CDF_SAP_01513 Unable to retrieve JCo Function for SAP_RFM_NAME from SAP Repository.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
메시지에 표시된 근본 원인을 확인하고 적절한 조치를 취합니다.
CDF_SAP_01501 RFM SAP_RFM_NAME을 찾을 수 없습니다. SAP에서 적절한 전송 요청을 올바르게 가져왔는지 확인합니다.
CDF_SAP_01406 Error while executing RFM SAP_RFM_NAME.
Root Cause: SAP_ERROR_CODE - SAP_ROOT_CAUSE_MESSAGE
SAP 사용자에게 적절한 승인이 할당되어 있는지 확인합니다.
CDF_SAP_01516 Table or View SAP_TABLE/VIEW_NAME could not be found. 테이블 또는 뷰가 존재하고 SAP에서 활성 상태인지 확인합니다.
CDF_SAP_01517 SAP_TABLE/VIEW_NAME is not of type table or view. SAP의 구조가 아닌 유효한 테이블 또는 뷰인지 확인합니다.
CDF_SAP_1532 Filter Options syntax is not valid. 필터 조건을 제공하는 동안 올바른 OpenSQL 구문이 뒤에 있는지 확인합니다.
CDF_SAP_1534 Data buffer in SAP exceeded while extracting records from table/view SAP_TABLE/VIEW_NAME. 패키지 크기 또는 분할 수를 줄입니다. 또는 SAP 관리자에게 알려 SAP 서버에서 사용할 수 있는 메모리 리소스를 늘립니다.
CDF_SAP_1403 User is not authorized to access SAP_TABLE/VIEW_NAME table/view data in SAP. 테이블/뷰 SAP Table/View Name(SAP 테이블/뷰 이름)에 대한 적절한 읽기 권한이 SAP 사용자에 할당되었는지 확인합니다.
CDF_SAP_1535 Query for the table/view AP_TABLE/VIEW_NAME failed to execute successfully. 필터 조건에 유효한 열 이름이 사용되었는지 확인합니다.
CDF_SAP_01520 Failed to extract records #FROM_RECORD_INDEX to #TO_RECORD_INDEX, even after MAX_RETRY_COUNT retries. SAP 서버와의 통신 오류. Cloud Data Fusion에서 SAP 서버의 네트워크 연결 및 접근성을 확인합니다.

다음 단계