![]() |
1
4
您可以使用以下命令在PySpark中使用SparkNLP包:
但这并没有告诉Python在哪里可以找到绑定。遵循类似报告的说明 here ,可以通过将jar目录添加到PYTHONPATH来修复此问题:
或由
|
![]() |
2
3
我想出来了。正确加载的jar文件只是编译的Scala文件。我仍然必须将包含包装器代码的Python文件放在可以导入的位置。一旦我这么做了,一切都很顺利。 |
![]() |
3
0
多亏了克莱。下面是我如何设置PYTHONPATH的:
然后它对我起了作用,因为我的/spark nlp/python文件夹现在包含难以捉摸的sparknlp模块。
|
![]() |
Dale Angus · Spark ML库 7 年前 |
![]() |
Adeel Hashmi · Spark机器学习:RDD变得不可读 7 年前 |
|
Bidisha Mukherjee · pyspark中ML算法的训练 7 年前 |
![]() |
mentongwu · 如何使矢量汇编程序不压缩数据? 7 年前 |