据我所知,你可能丢了包裹
mongo-spark-connector
,所以首先试着这样安装:
!pip install --upgrade pymongo[srv],pyspark,pyarrow
并确保您已添加
mongo火花连接器
震击你的火花
classpath
,然后将其添加到Spark会话配置中,并替换
3.0.1
使用已安装的连接器版本:
.config("spark.jars.packages", "org.mongodb.spark:mongo-spark-connector_2.12:3.0.1")
使现代化
所以试着降低
mongo火花连接器
版本转换为较低版本,看看它是否有效?您也可以尝试在代码中显式指定包版本,如下所示(更改
xxxx:/.
用你的
MongoDB
连接字符串):
df = spark.read.format("com.mongodb.spark.sql.DefaultSource") \
.option("spark.mongodb.input.uri", "mongodb:xxxx:<PORT>/<DB>.<COLLECTION>") \
.load()
你确定你已经正确地将连接器jar文件添加到类路径中了吗?请这样检查
echo $SPARK_CLASSPATH
祝你好运