代码之家  ›  专栏  ›  技术社区  ›  Tanin

如何确保Spark使用每个阶段使用的集合执行器的数量?

  •  0
  • Tanin  · 技术社区  · 4 年前

    我发现一些中间阶段使用的执行器数量(远远)少于的值 spark.executor.instances .

    目前, spark.executer.instances 设置为 spark.dynamicAllocation.enabled 设置为false

    我们还尝试启用 spark.dynamicAllocation.enabled 到true和set spark.dynamicAllocation.minExecutors 达到一定的价值。

    但是在这两种情况下, spark.dynamicAllocation.min执行程序 spark.executer.instances 似乎被忽视了。

    我想知道是否有人知道如何进一步调查,或者根本原因是什么。

    编辑:当启用动态分配时,我们还设置 spark.dynamicAllocation.maxExecutors

    0 回复  |  直到 4 年前
        1
  •  0
  •   walker_4    4 年前

    尝试设置

    spark.dynamicAllocation.max执行程序