要在使用Node.js客户端库从Cloud Storage执行加载作业时启用useAvroLogicalTypes,可以通过以下代码示例来实现:
首先,安装必需的依赖项。在命令行中运行以下命令:
npm install --save @google-cloud/bigquery avsc
接下来,使用以下代码示例执行加载作业:
const { BigQuery } = require('@google-cloud/bigquery');
const fs = require('fs');
const avro = require('avsc');
async function loadAvro() {
  // 客户端库初始化
  const bigquery = new BigQuery();
  // 读取Avro模式
  const schema = avro.Type.forSchema({
    type: 'record',
    name: 'MyRecord',
    fields: [
      { name: 'id', type: 'int' },
      { name: 'name', type: 'string' },
    ],
  });
  // 从Cloud Storage加载作业
  const metadata = {
    sourceFormat: 'AVRO',
    schema: {
      fields: schema.fields.map(field => ({
        name: field.name,
        type: field.type.typeName,
        mode: 'NULLABLE',
      })),
      useAvroLogicalTypes: true,
    },
  };
  const dataset = bigquery.dataset('my_dataset');
  const table = dataset.table('my_table');
  const [job] = await table.load('gs://my-bucket/my-file.avro', metadata);
  // 等待加载作业完成
  const [jobResult] = await job.getMetadata();
  // 检查加载作业是否成功
  if (jobResult.status.errors && jobResult.status.errors.length > 0) {
    console.error('加载作业出错:', jobResult.status.errors);
    return;
  }
  console.log('加载作业成功!');
}
loadAvro();
在上面的代码示例中,我们首先导入所需的依赖项,包括@google-cloud/bigquery和avsc。然后,我们使用avsc库定义了一个Avro数据模式,该模式包含一个id字段和一个name字段。
接下来,我们使用BigQuery类初始化了一个BigQuery客户端实例,并读取了Avro模式。然后,我们为加载作业指定了sourceFormat为AVRO,并在metadata中将schema设置为useAvroLogicalTypes为true。
然后,我们使用table.load()方法从Cloud Storage加载作业,并等待作业完成。最后,我们检查作业是否成功,并打印出相应的消息。
确保将my_dataset和my_table替换为您的目标数据集和表的名称,并将gs://my-bucket/my-file.avro替换为您的实际Avro文件的路径。
通过使用上述代码示例,您可以在使用Node.js客户端库从Cloud Storage执行加载作业时启用useAvroLogicalTypes选项。
                    上一篇:BigQuery:使用函数结果进行Join操作时出现错误(ERROR:Subqueryinjoinpredicateshouldonlydependonexactlyonejoinside.)