在Apache Beam的BigQueryIO中,DIRECT_READ和EXPORT都是用于读取BigQuery数据的方法。但是,它们之间有一些关键的区别。
DIRECT_READ方法将数据流直接从BigQuery中读取,并将其作为PCollection返回。与此相反,EXPORT方法将数据从BigQuery导出并将其存储到Google Cloud Storage(GCS)中。然后,数据可以从GCS读取并作为PCollection返回。
DIRECT_READ方法适用于小数据集或需要实时处理数据的情况。它允许Beam Worker在BigQuery数据集上直接进行查询,并从BigQuery结果集返回数据。与此相反,EXPORT方法适用于大型数据集,它将数据导出到GCS,然后进行更灵活的数据处理,例如多次读取数据或应用其他转换。
在下面的示例中,演示了如何使用DIRECT_READ和EXPORT方法读取BigQuery数据:
from apache_beam.io.gcp.internal.clients import bigquery
from apache_beam.options.pipeline_options import PipelineOptions
from apache_beam.options.pipeline_options import GoogleCloudOptions
from apache_beam import Pipeline
# Set up pipeline options
options = PipelineOptions()
google_cloud_options = options.view_as(GoogleCloudOptions)
google_cloud_options.project = 'your_project'
google_cloud_options.region = 'your_region'
# Read data using DIRECT_READ method
table_spec = bigquery.TableReference(
projectId='your_project',
datasetId='your_dataset',
tableId='your_table')
query = 'SELECT * FROM `your_project.your_dataset.your_table` LIMIT 100'
data = (pipeline
| beam.io.Read(
beam.io.BigQuerySource(
query=query,
use_standard_sql=True)))
# Read data using EXPORT method
output = 'gs://your-output-path'
table = 'your-project.your_dataset.your_table'
beam.io.gcp.bigquery.BigQueryToCloudStorage(
query='SELECT * FROM `{0}`'.format(table),
output=table.replace('.','-'),
compression=beam.io.gcp.bigquery.Compression.GZIP,
file_name_suffix='.json',
num_shards=10,
).with_output_types(str)
# Run pipeline
result = pipeline.run()
使用DIRECT_READ方法时,可以直接使用beam.io.BigQuerySource来读取数据,而使用EXPORT方法时,则需要使用beam.io.gcp.bigquery.BigQueryToCloudStorage将数据导出到GCS中,然后读取GCS中的数据
上一篇:ApacheBeam的BigQueryIO连接器是否支持对外部表进行操作?
下一篇:ApacheBeam的BigQueryIO(Java)无法将TIMESTAMP字段写入BigQuery--fasterxml.jacksonexception'typenotsupported”。