Managed I/O supporta la lettura e la scrittura in Apache Kafka.
Requisiti
I seguenti SDK supportano I/O gestito per Apache Kafka:
- Apache Beam SDK per Java versione 2.58.0 o successive
- SDK Apache Beam per Python versione 2.61.0 o successive
Configurazione
L'I/O gestito per BigQuery supporta i seguenti parametri di configurazione:
KAFKA
Leggi
Configurazione | Tipo | Descrizione |
---|---|---|
bootstrap_servers |
str
|
Un elenco di coppie host/porta da utilizzare per stabilire la connessione iniziale al cluster Kafka. Il client utilizzerà tutti i server indipendentemente da quali server sono specificati qui per il bootstrapping. Questo elenco influisce solo sugli host iniziali utilizzati per scoprire l'insieme completo di server. Questo elenco deve essere nel formato `host1:port1,host2:port2,...` |
topic |
str
|
n/a |
confluent_schema_registry_subject |
str
|
n/a |
confluent_schema_registry_url |
str
|
n/a |
consumer_config_updates |
map[str, str]
|
Un elenco di coppie chiave-valore che fungono da parametri di configurazione per i consumer Kafka. La maggior parte di queste configurazioni non sarà necessaria, ma puoi utilizzarle se devi personalizzare il consumer Kafka. Visualizza un elenco dettagliato: https://docs.confluent.io/platform/current/installation/configuration/consumer-configs.html |
file_descriptor_path |
str
|
Il percorso del file del set di descrittori di file del buffer di protocollo. Questo file viene utilizzato per la definizione dello schema e la serializzazione dei messaggi. |
formato |
str
|
Il formato di codifica per i dati archiviati in Kafka. Le opzioni valide sono: RAW,STRING,AVRO,JSON,PROTO |
message_name |
str
|
Il nome del messaggio Protocol Buffer da utilizzare per l'estrazione dello schema e la conversione dei dati. |
schema |
str
|
Lo schema in cui i dati sono codificati nell'argomento Kafka. Per i dati AVRO, si tratta di uno schema definito con la sintassi dello schema AVRO (https://avro.apache.org/docs/1.10.2/spec.html#schemas). Per i dati JSON, si tratta di uno schema definito con la sintassi JSON Schema (https://json-schema.org/). Se viene fornito un URL a Confluent Schema Registry, questo campo viene ignorato e lo schema viene recuperato da Confluent Schema Registry. |
KAFKA
Scrittura
Configurazione | Tipo | Descrizione |
---|---|---|
bootstrap_servers |
str
|
Un elenco di coppie host/porta da utilizzare per stabilire la connessione iniziale al cluster Kafka. Il client utilizzerà tutti i server indipendentemente da quali server sono specificati qui per il bootstrapping. Questo elenco influisce solo sugli host iniziali utilizzati per scoprire l'insieme completo di server. | Formato: host1:porta1,host2:porta2,... |
formato |
str
|
Il formato di codifica per i dati archiviati in Kafka. Le opzioni valide sono: RAW,JSON,AVRO,PROTO |
topic |
str
|
n/a |
file_descriptor_path |
str
|
Il percorso del file del set di descrittori di file del buffer di protocollo. Questo file viene utilizzato per la definizione dello schema e la serializzazione dei messaggi. |
message_name |
str
|
Il nome del messaggio Protocol Buffer da utilizzare per l'estrazione dello schema e la conversione dei dati. |
producer_config_updates |
map[str, str]
|
Un elenco di coppie chiave-valore che fungono da parametri di configurazione per i produttori Kafka. La maggior parte di queste configurazioni non sarà necessaria, ma puoi utilizzarle se devi personalizzare il produttore Kafka. Consulta un elenco dettagliato: https://docs.confluent.io/platform/current/installation/configuration/producer-configs.html |
schema |
str
|
n/a |
Passaggi successivi
Per ulteriori informazioni ed esempi di codice, consulta i seguenti argomenti: