如果你使用pip install安装了databricks-connect并在使用Pyspark时发现无法工作,需要在Pyspark中手动添加databricks-connect jar文件路径。可以按照下面的步骤添加:
databricks-connect get-jar-dir
将输出中的文件路径复制到剪贴板。
在Pyspark中,通过以下代码行手动添加databricks-connect jar文件路径:
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName("myApp") \
.config("spark.driver.extraClassPath", "/path/to/databricks-connect.jar") \
.getOrCreate()