E/S administrada admite la lectura y escritura en Apache Kafka.
Requisitos
Los siguientes SDK admiten la E/S administrada para Apache Kafka:
- SDK de Apache Beam para Java, versión 2.58.0 o posterior
- SDK de Apache Beam para Python, versión 2.61.0 o posterior
Configuración
La E/S administrada para BigQuery admite los siguientes parámetros de configuración:
KAFKA
Leer
Configuración | Tipo | Descripción |
---|---|---|
bootstrap_servers |
str
|
Es una lista de pares host/puerto que se usan para establecer la conexión inicial con el clúster de Kafka. El cliente usará todos los servidores, independientemente de los que se especifiquen aquí para el bootstrapping. Esta lista solo afecta a los hosts iniciales que se usan para descubrir el conjunto completo de servidores. Esta lista debe tener el formato "host1:port1,host2:port2,…". |
tema |
str
|
No disponible |
confluent_schema_registry_subject |
str
|
No disponible |
confluent_schema_registry_url |
str
|
No disponible |
consumer_config_updates |
map[str, str]
|
Es una lista de pares clave-valor que actúan como parámetros de configuración para los consumidores de Kafka. La mayoría de estas configuraciones no serán necesarias, pero puedes usarlas si necesitas personalizar tu consumidor de Kafka. Consulta una lista detallada: https://docs.confluent.io/platform/current/installation/configuration/consumer-configs.html |
file_descriptor_path |
str
|
Es la ruta de acceso al archivo del conjunto de descriptores de archivos de búfer de protocolo. Este archivo se usa para la definición del esquema y la serialización de mensajes. |
formato |
str
|
Es el formato de codificación de los datos almacenados en Kafka. Las opciones válidas son: RAW, STRING, AVRO, JSON y PROTO. |
message_name |
str
|
Es el nombre del mensaje del búfer de protocolo que se usará para la extracción del esquema y la conversión de datos. |
schema |
str
|
Es el esquema en el que se codifican los datos en el tema de Kafka. En el caso de los datos de AVRO, se trata de un esquema definido con la sintaxis del esquema de AVRO (https://avro.apache.org/docs/1.10.2/spec.html#schemas). En el caso de los datos JSON, se trata de un esquema definido con la sintaxis de JSON Schema (https://json-schema.org/). Si se proporciona una URL al registro de esquemas de Confluent, se ignora este campo y se recupera el esquema del registro de esquemas de Confluent. |
KAFKA
Escribir
Configuración | Tipo | Descripción |
---|---|---|
bootstrap_servers |
str
|
Es una lista de pares host/puerto que se usan para establecer la conexión inicial con el clúster de Kafka. El cliente usará todos los servidores, independientemente de los que se especifiquen aquí para el bootstrapping. Esta lista solo afecta a los hosts iniciales que se usan para descubrir el conjunto completo de servidores. | Formato: host1:puerto1,host2:puerto2,… |
formato |
str
|
Es el formato de codificación de los datos almacenados en Kafka. Las opciones válidas son RAW, JSON, AVRO y PROTO. |
tema |
str
|
No disponible |
file_descriptor_path |
str
|
Es la ruta de acceso al archivo del conjunto de descriptores de archivos de búfer de protocolo. Este archivo se usa para la definición del esquema y la serialización de mensajes. |
message_name |
str
|
Es el nombre del mensaje del búfer de protocolo que se usará para la extracción del esquema y la conversión de datos. |
producer_config_updates |
map[str, str]
|
Es una lista de pares clave-valor que actúan como parámetros de configuración para los productores de Kafka. La mayoría de estas configuraciones no serán necesarias, pero puedes usarlas si necesitas personalizar tu productor de Kafka. Consulta una lista detallada: https://docs.confluent.io/platform/current/installation/configuration/producer-configs.html |
schema |
str
|
No disponible |
¿Qué sigue?
Para obtener más información y ejemplos de código, consulta los siguientes temas: