• /
  • EnglishEspañolFrançais日本語한국어Português
  • 로그인지금 시작하기

사용자의 편의를 위해 제공되는 기계 번역입니다.

영문본과 번역본이 일치하지 않는 경우 영문본이 우선합니다. 보다 자세한 내용은 이 페이지를 방문하시기 바랍니다.

문제 신고

Confluent 클라우드 통합

뉴렐릭은 아파치 Kafka 데이터에 대한 Confluent Cloud 관리형 스트리밍을 수집하기 위한 통합을 제공합니다. 이 문서에서는 이러한 통합을 활성화하는 방법과 보고할 수 있는 데이터에 대해 설명합니다.

전제 조건

  • 뉴렐릭 계정
  • 활성화된 Confluent Cloud 계정
  • Confluent Cloud API 키 및 비밀
  • MetricsViewer Confluent Cloud 계정에 액세스

통합 활성화

이 통합을 활성화하려면 Integrations & Agents 로 이동하여 Confluent Cloud -> API Polling 선택하고 지침을 따르세요.

중요

IP 필터링을 설정한 경우 다음 IP 주소를 필터에 추가하세요.

  • 162.247.240.0/22

  • 152.38.128.0/19

    클라우드 통합을 위한 뉴렐릭 IP 범위에 대한 자세한 내용은 이 문서를 참조하세요. 이 작업을 수행하기 위한 지침은 이 문서를 참조하세요.

구성 및 폴링

Confluent Cloud Kafka 통합을 위한 기본 폴링 정보:

  • New Relic 폴링 간격: 5분
  • Confluent Cloud 데이터 간격: 1분

폴링 빈도는 초기 설정에서만 변경할 수 있습니다.

데이터 보기 및 사용

다음 이벤트 유형을 사용하여 데이터를 쿼리하고 탐색 할 수 있습니다.

실재

데이터 형식

공급자

무리

Metric

Confluent

커넥터

Metric

Confluent

ksql

Metric

Confluent

컴퓨트 풀 (Flink)

Metric

Confluent

데이터 사용 방법에 대한 자세한 내용은 통합 데이터 이해 및 사용 을 참조하십시오.

측정항목 데이터

이 통합은 클러스터, 커넥터 및 ksql에 대한 Confluent cloud Kafka 데이터를 기록합니다.

클러스터 데이터

미터법

유닛

설명

cluster_load_percent

퍼센트

클러스터 활용도 측정. 값은 0.0과 1.0 사이입니다. 전용 타이어 클러스터에만 이 인덱스 데이터가 있습니다.

hot_partition_ingress

퍼센트

유입 처리량으로 인해 핫 파티션이 존재함을 나타내는 지표입니다. 핫 파티션이 감지되면 값은 1.0이고, 핫 파티션이 감지되지 않으면 값은 비어 있습니다.

hot_partition_egress

퍼센트

이탈 처리량으로 인해 핫 파티션이 존재함을 나타내는 지표입니다. 핫 파티션이 감지되면 값은 1.0이고, 핫 파티션이 감지되지 않으면 값은 비어 있습니다.

request_bytes

바이트

네트워크를 통해 전송된 지정된 요청 유형의 총 요청 바이트의 델타 카운트입니다. 각 샘플은 이전 데이터 포인트 이후 전송된 바이트 수입니다. 60초마다 카운트가 샘플링됩니다.

response_bytes

바이트

네트워크를 통해 전송된 지정된 응답 유형의 총 응답 바이트의 델타 카운트입니다. 각 샘플은 이전 데이터 포인트 이후 전송된 바이트 수입니다. 60초마다 카운트가 샘플링됩니다.

received_bytes

바이트

네트워크에서 수신한 고객 데이터의 델타 바이트 수입니다. 각 샘플은 이전 데이터 샘플 이후 수신된 바이트 수입니다. 카운트는 60초마다 샘플링됩니다.

sent_bytes

바이트

네트워크를 통해 전송된 고객 데이터의 델타 바이트 수입니다. 각 샘플은 이전 데이터 포인트 이후 전송된 바이트 수입니다. 카운트는 60초마다 샘플링됩니다.

received_records

세다

수신된 레코드의 델타 수입니다. 각 샘플은 이전 데이터 샘플 이후에 수신된 레코드 수입니다. 카운트는 60초마다 샘플링됩니다.

sent_records

세다

전송된 레코드의 델타 수입니다. 각 샘플은 이전 데이터 포인트 이후 전송된 레코드 수입니다. 카운트는 60초마다 샘플링됩니다.

partition_count

세다

파티션의 수.

consumer_lag_offsets

밀리초

그룹 구성원의 커밋된 오프셋과 파티션의 상위 워터마크 사이의 지연입니다.

successful_authentication_count

세다

성공한 인증의 델타 수입니다. 각 샘플은 이전 데이터 포인트 이후 성공한 인증 수입니다. 60초마다 샘플링된 카운트입니다.

active_connection_count

세다

활성 인증 연결 수입니다.

커넥터 데이터

미터법

유닛

설명

sent_records

세다

소스 커넥터에 대해 변환에서 전송되어 Kafka에 기록된 총 레코드 수의 델타 카운트입니다. 각 샘플은 이전 데이터 포인트 이후 전송된 레코드 수입니다. 60초마다 카운트가 샘플링됩니다.

connector_status

조금

시스템 내 커넥터의 상태입니다. 해당 값은 항상 1로 설정되어 커넥터의 존재를 나타냅니다. 커넥터의 현재 작동 상태는 Indicator.status 태그를 통해 식별됩니다.

connector_task_status

조금

시스템 내에서 커넥터의 작업 상태입니다. 해당 값은 항상 1로 설정되어 커넥터 작업이 존재함을 나타냅니다. 커넥터의 현재 작동 상태는 Indicator.status 태그를 통해 식별됩니다.

connector_task_batch_size_avg

세다

분당 평균 배치 크기(레코드 수로 측정)입니다. 소스 커넥터의 경우 Kafka로 전송된 평균 배치 크기를 나타냅니다. 싱크 커넥터의 경우 싱크 작업에서 읽은 평균 배치 크기를 나타냅니다.

connector_task_batch_size_max

세다

분당 최대 배치 크기(레코드 개수로 측정). 소스 커넥터의 경우, 이는 Kafka로 전송되는 최대 배치 크기를 나타냅니다. 싱크 커넥터의 경우, 이는 싱크 태스크가 읽는 최대 배치 크기를 나타냅니다.

received_records

세다

싱크 커넥터가 수신한 총 레코드 수의 델타 카운트입니다. 각 샘플은 이전 데이터 포인트 이후 수신된 레코드 수입니다. 60초마다 카운트가 샘플링됩니다.

sent_bytes

바이트

싱크 커넥터가 수신한 총 레코드 수의 델타 카운트입니다. 각 샘플은 이전 데이터 포인트 이후 수신된 레코드 수입니다. 60초마다 카운트가 샘플링됩니다.

received_bytes

바이트

싱크 커넥터가 수신한 총 바이트의 델타 카운트입니다. 각 샘플은 이전 데이터 포인트 이후 수신된 바이트 수입니다. 60초마다 카운트가 샘플링됩니다.

dead_letter_queue_records

세다

싱크 커넥터에 대해 Kafka에 기록된 데드 레터 큐 레코드의 델타 카운트입니다. 60초마다 카운트가 샘플링됩니다.

ksql 데이터

미터법

유닛

설명

streaming_unit_count

세다

이 KSQL 인스턴스의 Confluent 스트리밍 단위(CSU) 수입니다. 60초마다 카운트가 샘플링됩니다. 이 지표의 암묵적 시간 집계는 MAX입니다.

query_saturation

퍼센트

모든 노드에서 주어진 ksqlDB 쿼리에 대한 최대 포화도입니다. 0과 1 사이의 값을 반환하며, 1에 가까운 값은 ksqlDB 쿼리 처리가 사용 가능한 리소스에 대한 병목현상, 병목지점임을 나타냅니다.

task_stored_bytes

바이트

주어진 작업의 상태 저장소 크기(바이트)입니다.

storage_utilization

퍼센트

주어진 ksqlDB 애플리케이션의 총 저장소 사용량입니다.

consumed_total_bytes

바이트

요청 기간 동안 Kafka에서 연속 쿼리로 소비된 바이트의 델타 수입니다.

produced_total_bytes

바이트

요청 기간 동안 지속적인 쿼리를 통해 Kafka에 생성된 바이트의 델타 수입니다.

offsets_processed_total

세다

주어진 쿼리 또는 작업 또는 주제 또는 오프셋에 의해 처리된 오프셋의 델타 카운트입니다.

committed_offset_lag

밀리초

주어진 쿼리, 작업, 주제 또는 오프셋에 대한 커밋된 오프셋과 종료 오프셋 사이의 현재 지연입니다.

processing_errors_total

세다

요청 기간 동안 쿼리의 레코드 처리 오류 수를 델타로 계산합니다.

query_restarts

세다

요청 기간 동안 쿼리를 다시 시작하게 하는 실패 횟수의 델타 카운트입니다.

미터법

유닛

설명

compute_pool_utilization.cfu_limit

세다

해당 풀에서 가능한 최대 CFU 수입니다.

compute_pool_utilization.cfu_minutes_consumed

세다

마지막 측정 이후 소모된 CFU 수.

compute_pool_utilization.current_cfus

세다

특정 시점의 CFU 절대 수치.

current_input_watermark_milliseconds

밀리초

해당 표에 대해 이 문장이 받은 마지막 워터마크(밀리초)입니다.

current_output_watermark_milliseconds

밀리초

이 문장이 주어진 표에 생성한 마지막 워터마크(밀리초)입니다.

materialized_table_utilization.cfu_minutes_consumed

세다

마지막 측정 이후 소모된 CFU 수를 나타냅니다.

materialized_table_utilization.current_cfus

세다

특정 시점의 CFU 절대 수치.

max_input_lateness_milliseconds

밀리초

지난 1분 동안 처리된 모든 기록에서 관찰된 최대 지연 시간입니다. 레코드의 타임스탬프가 현재 워터마크보다 작거나 같으면 해당 레코드는 지연된 것으로 간주됩니다.

num_late_records_in

세다

지연 이벤트로 분류된 입력 레코드의 총 개수입니다. 이는 타임스탬프가 현재 워터마크보다 작거나 같은 기록입니다.

num_records_in

세다

이 진술서가 받은 총 기록 수입니다.

num_records_in_from_files

세다

이 명령문이 Tableflow 파일에서 읽은 레코드의 총 개수입니다.

num_records_in_from_topics

세다

이 문장이 Kafka 토픽에서 읽은 레코드의 총 개수입니다.

num_records_out

세다

이 문장이 생성한 총 레코드 수입니다.

operator.state_size_bytes

바이트

이 연산자 상태의 크기(바이트).

pending_records

세다

Kafka 파티션 내 모든 오퍼레이터에서 컨슈머 오프셋 이후 사용 가능한 총 레코드 수입니다.

statement_status

세다

이 지표는 시스템 내 명령문의 상태를 모니터링합니다. 해당 값은 항상 1로 설정되어 있으며, 이는 해당 문장이 존재함을 나타냅니다. 해당 문의 현재 운영 상태는 범위.status 태그를 통해 확인할 수 있습니다.

  • 처리 중: 보고서가 제출되었으며 Flink에서 보고서 실행을 준비 중입니다.
  • 실행 중: Flink가 Flink 문을 활발하게 실행하고 있습니다.
  • 완료됨: 해당 진술서는 모든 작업을 완료했습니다.
  • 삭제 중: 해당 문장이 삭제되고 있습니다.
  • 실패: 명령 실행 중 오류가 발생하여 더 이상 실행되지 않습니다.
  • 상태 불량: 해당 명세서가 비정상적인 상태인 것으로 보입니다. 예를 들어, 오랫동안 거래가 커밋되지 않았거나 최근에 명세서가 자주 재시작되었습니다.
  • 중지 중: 해당 성명 발표가 곧 중단됩니다.
  • 중지됨: 해당 구문이 중지되어 더 이상 실행되지 않습니다.

statement_utilization.cfu_minutes_consumed

세다

마지막 측정 이후 소모된 CFU 수를 나타냅니다.

statement_utilization.current_cfus

세다

특정 시점의 CFU 절대 수치.

무엇 향후 계획

데이터 및 UI

뉴렐릭를 사용하여 Kafka 클러스터를 모니터링하는 방법을 알아보세요.

Copyright © 2026 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.