Apache Cassandra 로그 수집
이 문서에서는 Bindplane을 사용하여 Apache Cassandra 로그를 Google Security Operations에 수집하는 방법을 설명합니다. 파서는 필드를 추출하여 통합 데이터 모델 (UDM)로 변환합니다. 그로크 패턴을 사용하여 초기 메시지를 파싱한 다음 중첩된 데이터에 JSON 필터를 사용하고 조건부 변환을 실행하여 다양한 필드를 해당 UDM에 매핑하고, 다양한 로그 수준을 처리하고, 메타데이터로 출력을 보강합니다.
시작하기 전에
다음 기본 요건이 충족되었는지 확인합니다.
- Google SecOps 인스턴스
- Windows 2016 이상 또는 systemd가 있는 Linux 호스트
- 프록시 뒤에서 실행하는 경우 방화벽 포트가 열려 있음
- Apache Cassandra 인스턴스에 대한 권한 액세스
Google SecOps 수집 인증 파일 가져오기
- Google SecOps 콘솔에 로그인합니다.
- SIEM 설정 > 수집 에이전트로 이동합니다.
- 수집 인증 파일을 다운로드합니다. Bindplane이 설치될 시스템에 파일을 안전하게 저장합니다.
Google SecOps 고객 ID 가져오기
- Google SecOps 콘솔에 로그인합니다.
- SIEM 설정 > 프로필로 이동합니다.
- 조직 세부정보 섹션에서 고객 ID를 복사하여 저장합니다.
Bindplane 에이전트 설치
Windows 설치
- 명령 프롬프트 또는 PowerShell을 관리자로 엽니다.
다음 명령어를 실행합니다.
msiexec /i `https://github.com/observIQ/bindplane-agent/releases/latest/download/observiq-otel-collector.msi` /quiet
Linux 설치
- 루트 또는 sudo 권한으로 터미널을 엽니다.
다음 명령어를 실행합니다.
sudo sh -c `$(curl -fsSlL https://github.com/observiq/bindplane-agent/releases/latest/download/install_unix.sh)` install_unix.sh
추가 설치 리소스
추가 설치 옵션은 설치 가이드를 참고하세요.
Syslog를 수집하여 Google SecOps로 전송하도록 Bindplane 에이전트 구성
- 구성 파일에 액세스합니다.
config.yaml
파일을 찾습니다. 일반적으로 Linux에서는/etc/bindplane-agent/
디렉터리에 있고 Windows에서는 설치 디렉터리에 있습니다.- 텍스트 편집기 (예:
nano
,vi
, 메모장)를 사용하여 파일을 엽니다.
다음과 같이
config.yaml
파일을 수정합니다.receivers: udplog: # Replace the port and IP address as required listen_address: `0.0.0.0:514` exporters: chronicle/chronicle_w_labels: compression: gzip # Adjust the path to the credentials file you downloaded in Step 1 creds: '/path/to/ingestion-authentication-file.json' # Replace with your actual customer ID from Step 2 customer_id: <customer_id> endpoint: malachiteingestion-pa.googleapis.com # Add optional ingestion labels for better organization ingestion_labels: log_type: 'CASSANDRA' raw_log_field: body service: pipelines: logs/source0__chronicle_w_labels-0: receivers: - udplog exporters: - chronicle/chronicle_w_labels
인프라에 필요한 대로 포트와 IP 주소를 바꿉니다.
<customer_id>
를 실제 고객 ID로 바꿉니다.Google SecOps 수집 인증 파일 가져오기 섹션에서 인증 파일이 저장된 경로로
/path/to/ingestion-authentication-file.json
를 업데이트합니다.
Bindplane 에이전트를 다시 시작하여 변경사항 적용
Linux에서 Bindplane 에이전트를 다시 시작하려면 다음 명령어를 실행합니다.
sudo systemctl restart bindplane-agent
Windows에서 Bindplane 에이전트를 다시 시작하려면 서비스 콘솔을 사용하거나 다음 명령어를 입력하면 됩니다.
net stop BindPlaneAgent && net start BindPlaneAgent
Apache Cassandra에서 Syslog 내보내기 구성
- SSH를 사용하여 Apache Cassandra 호스트에 로그인합니다.
- 구성 파일
logback.xml
을 열고 28번째 줄에 다음 코드를 삽입합니다.- 대부분의 Apache Cassandra 버전의 경우 위치는
$(CASSANDRA_HOME)/conf
입니다. - Datastax Enterprise의 패키지 설치의 경우 위치는
/etc/dse
입니다. - DSE의 tar 파일 설치의 경우 위치는
$(TARBALL_ROOT)/resources/cassandra/conf
입니다.
- 대부분의 Apache Cassandra 버전의 경우 위치는
28번째 줄의
logback.xml
파일에 다음 Appender 정의를 추가합니다.<appender name="SYSLOG" class="ch.qos.logback.classic.net.SyslogAppender"> <syslogHost>bindplane-ip</syslogHost> <port>bindplane-port</port> <facility>LOCAL7</facility> <throwableExcluded>true</throwableExcluded> <suffixPattern>%thread:%level:%logger{36}:%msg</suffixPattern> </appender>
bindplane-ip
및bindplane-port
를 실제 Bindplane 에이전트 IP 주소 및 포트로 바꿉니다.logback.xml
파일의 루트 로거 블록<root level=
INFO>
에 다음 코드를 추가합니다.이 줄이 삽입되는 위치는 Apache Cassandra 버전에 따라 다릅니다.
- Apache Cassandra 5.0.x, 123번 줄
- Apache Cassandra 4.0.x 및 4.1.x, 115번 줄
- Apache Cassandra 3.11.x 및 3.0.x, 92번 줄
- Datastax Enterprise (모든 버전), 121번 라인
<appender-ref ref=`SYSLOG` />
UDM 매핑 테이블
로그 필드 | UDM 매핑 | 논리 |
---|---|---|
agent.ephemeral_id |
observer.labels.value |
내부 JSON 메시지의 agent.ephemeral_id 값입니다. |
agent.hostname |
observer.hostname |
내부 JSON 메시지의 agent.hostname 값입니다. |
agent.id |
observer.asset_id |
내부 JSON 메시지의 filebeat: 와 agent.id 값의 연결입니다. |
agent.name |
observer.user.userid |
내부 JSON 메시지의 agent.name 값입니다. |
agent.type |
observer.application |
내부 JSON 메시지의 agent.type 값입니다. |
agent.version |
observer.platform_version |
내부 JSON 메시지의 agent.version 값입니다. |
cloud.availability_zone |
principal.cloud.availability_zone |
내부 JSON 메시지의 cloud.availability_zone 값입니다. |
cloud.instance.id |
principal.resource.product_object_id |
내부 JSON 메시지의 cloud.instance.id 값입니다. |
cloud.instance.name |
principal.resource.name |
내부 JSON 메시지의 cloud.instance.name 값입니다. |
cloud.machine.type |
principal.resource.attribute.labels.value |
내부 JSON 메시지의 cloud.machine.type 값입니다. 여기서 해당 key 은 machine_type 입니다. |
cloud.provider |
principal.resource.attribute.labels.value |
내부 JSON 메시지의 cloud.provider 값입니다. 여기서 해당 key 은 provider 입니다. |
event_metadata._id |
metadata.product_log_id |
내부 JSON 메시지의 event_metadata._id 값입니다. |
event_metadata.version |
metadata.product_version |
내부 JSON 메시지의 event_metadata.version 값입니다. |
host.architecture |
target.asset.hardware.cpu_platform |
내부 JSON 메시지의 host.architecture 값입니다. |
host.fqdn |
target.administrative_domain |
내부 JSON 메시지의 host.fqdn 값입니다. |
host.hostname |
target.hostname |
내부 JSON 메시지의 host.hostname 값입니다. |
host.id |
target.asset.asset_id |
내부 JSON 메시지의 Host Id: 와 host.id 값의 연결입니다. |
host.ip |
target.asset.ip |
내부 JSON 메시지의 host.ip 에 있는 IP 주소의 배열입니다. |
host.mac |
target.mac |
내부 JSON 메시지의 host.mac 에 있는 MAC 주소의 배열입니다. |
host.os.kernel |
target.platform_patch_level |
내부 JSON 메시지의 host.os.kernel 값입니다. |
host.os.platform |
target.platform |
host.os.platform 가 debian 이면 LINUX 로 설정합니다. |
host.os.version |
target.platform_version |
내부 JSON 메시지의 host.os.version 값입니다. |
hostname |
principal.hostname |
grok을 사용하여 message 필드에서 추출한 hostname 값입니다. |
key |
security_result.detection_fields.value |
grok을 사용하여 message 필드에서 추출된 key 값입니다. 여기서 해당 key 은 key 입니다. |
log.file.path |
principal.process.file.full_path |
내부 JSON 메시지의 log.file.path 값입니다. |
log_level |
security_result.severity |
log_level 값에 따라 매핑됩니다. DEBUG , INFO , AUDIT 는 INFORMATIONAL 에 매핑되고, ERROR 는 ERROR 에 매핑되고, WARNING 는 MEDIUM 에 매핑됩니다. |
log_level |
security_result.severity_details |
grok을 사용하여 message 필드에서 추출한 log_level 값입니다. |
log_type |
metadata.log_type |
원시 로그의 log_type 값입니다. |
message |
security_result.description |
grok을 사용하여 message 필드에서 추출한 설명입니다. |
message |
target.process.command_line |
grok을 사용하여 message 필드에서 추출한 명령줄입니다. |
now |
security_result.detection_fields.value |
grok을 사용하여 message 필드에서 추출된 now 값입니다. 여기서 해당 key 는 now 입니다. grok을 사용하여 message 필드에서 추출한 event_time 필드에서 파싱됩니다. hostname 과 host.hostname 가 모두 있으면 USER_RESOURCE_ACCESS 로 설정하고, 그렇지 않으면 GENERIC_EVENT 로 설정합니다. CASSANDRA 로 설정합니다. CASSANDRA 로 설정합니다. ephemeral_id 로 설정합니다. cloud.instance.name 이 있으면 VIRTUAL_MACHINE 로 설정합니다. 해당 감지 필드에 대해 key 및 now 로 설정합니다. |
timestamp |
timestamp |
원시 로그의 create_time 필드에서 가져옵니다. |
도움이 더 필요하신가요? 커뮤니티 회원 및 Google SecOps 전문가로부터 답변을 받으세요.