此问题可能是由于超出 BigQuery 的最大写入大小或查询结果集过大导致的。为了解决此问题,可以尝试以下几种方法:
在代码中,可以通过设置以下代码来增加超时时间限制:
from google.cloud import bigquery
client = bigquery.Client()
job_config = bigquery.QueryJobConfig(maximum_bytes_billed=10**10)
query_job = client.query(
query,
# Location must match that of the dataset(s) referenced in the query.
location='US',
job_config=job_config)
query_job.result(timeout=60)
默认超时时间为 10 分钟,这个时间可能不足以处理较大的数据集。通过 timeout 参数可以将超时时间延长到 60 分钟。
当查询结果集太大时,可以将结果分割成更小的部分以避免超出 BigQuery 的写入或返回限制。这可以通过更改查询语句并分批次执行来完成。
from google.cloud import bigquery
client = bigquery.Client()
query_list = ["SELECT * FROM mytable WHERE TIMESTAMP_TRUNC(timestamp_field, HOUR) = TIMESTAMP_TRUNC(CURRENT_TIMESTAMP(), HOUR)", ..., "SELECT * FROM mytable WHERE ..."]
job_config = bigquery.QueryJobConfig(maximum_bytes_billed=10**10)
for query in query_list:
query_job = client.query(
query,
# Location must match that of the dataset(s) referenced in the query.
location='US',
job_config=job_config)
results = query_job.result()
在代码中,查询语句被拆分成多个单独的查询,在每个查询结果集中获取所需的数据。
当查询结果集过大时,可以将结果导出到 Google Cloud Storage 中。导出到 Cloud Storage 可以有效地避免 BigQuery 返回结果集