这是由于AWS Glue不支持通过--conf选项传递Spark配置属性所导致的问题。解决方法是将Spark属性作为额外的参数传递给AWS Glue Job,而不是作为--conf选项。以下是一个示例:
如果您的Spark作业需要更高的内存限制,则可以通过使用额外的Spark属性参数来设置该限制。例如,如果您想将内存限制设置为10 GB,则可以通过以下方式运行AWS Glue作业:
args = [
"--executor-memory",
"10g",
"s3://path/to/script.py",
"--job-bookmark-option",
"job-bookmark-disable"
]
在这个示例中,--executor-memory设置了作业的内存限制为10 GB。其他Spark属性也可以使用类似的方式进行设置。
请注意,AWS Glue支持的Spark属性可能会随着时间的推移而变化。因此,最好参考官方文档以了解当前支持的属性。