要在使用Node.js客户端库从Cloud Storage执行加载作业时启用useAvroLogicalTypes,可以通过以下代码示例来实现:
首先,安装必需的依赖项。在命令行中运行以下命令:
npm install --save @google-cloud/bigquery avsc
接下来,使用以下代码示例执行加载作业:
const { BigQuery } = require('@google-cloud/bigquery');
const fs = require('fs');
const avro = require('avsc');
async function loadAvro() {
// 客户端库初始化
const bigquery = new BigQuery();
// 读取Avro模式
const schema = avro.Type.forSchema({
type: 'record',
name: 'MyRecord',
fields: [
{ name: 'id', type: 'int' },
{ name: 'name', type: 'string' },
],
});
// 从Cloud Storage加载作业
const metadata = {
sourceFormat: 'AVRO',
schema: {
fields: schema.fields.map(field => ({
name: field.name,
type: field.type.typeName,
mode: 'NULLABLE',
})),
useAvroLogicalTypes: true,
},
};
const dataset = bigquery.dataset('my_dataset');
const table = dataset.table('my_table');
const [job] = await table.load('gs://my-bucket/my-file.avro', metadata);
// 等待加载作业完成
const [jobResult] = await job.getMetadata();
// 检查加载作业是否成功
if (jobResult.status.errors && jobResult.status.errors.length > 0) {
console.error('加载作业出错:', jobResult.status.errors);
return;
}
console.log('加载作业成功!');
}
loadAvro();
在上面的代码示例中,我们首先导入所需的依赖项,包括@google-cloud/bigquery
和avsc
。然后,我们使用avsc
库定义了一个Avro数据模式,该模式包含一个id
字段和一个name
字段。
接下来,我们使用BigQuery
类初始化了一个BigQuery客户端实例,并读取了Avro模式。然后,我们为加载作业指定了sourceFormat
为AVRO
,并在metadata
中将schema
设置为useAvroLogicalTypes
为true
。
然后,我们使用table.load()
方法从Cloud Storage加载作业,并等待作业完成。最后,我们检查作业是否成功,并打印出相应的消息。
确保将my_dataset
和my_table
替换为您的目标数据集和表的名称,并将gs://my-bucket/my-file.avro
替换为您的实际Avro文件的路径。
通过使用上述代码示例,您可以在使用Node.js客户端库从Cloud Storage执行加载作业时启用useAvroLogicalTypes选项。
上一篇:BigQuery:使用函数结果进行Join操作时出现错误(ERROR:Subqueryinjoinpredicateshouldonlydependonexactlyonejoinside.)