代码之家  ›  专栏  ›  技术社区  ›  Richard Deurwaarder

Apache flink-限制公开的度量的数量

  •  0
  • Richard Deurwaarder  · 技术社区  · 6 年前

    在查看此类度量时,这似乎不是一个bug或类似的东西。

    这是我用于度量的配置:

    metrics.reporters: graphite
    metrics.reporter.graphite.class: org.apache.flink.metrics.graphite.GraphiteReporter
    metrics.reporter.graphite.host: some-host.com
    metrics.reporter.graphite.port: 2003
    metrics.reporter.graphite.protocol: TCP
    metrics.reporter.graphite.interval: 60 SECONDS
    metrics.scope.jm: applications.__ENVIRONMENT__.__APPLICATION__.<host>.jobmanager
    metrics.scope.jm.job: applications.__ENVIRONMENT__.__APPLICATION__.<host>.jobmanager.<job_name>
    metrics.scope.tm: applications.__ENVIRONMENT__.__APPLICATION__.<host>.taskmanager.<tm_id>
    metrics.scope.tm.job: applications.__ENVIRONMENT__.__APPLICATION__.<host>.taskmanager.<tm_id>.<job_name>
    metrics.scope.task: applications.__ENVIRONMENT__.__APPLICATION__.<host>.taskmanager.<tm_id>.<job_name>.<task_id>.<subtask_index>
    metrics.scope.operator: applications.__ENVIRONMENT__.__APPLICATION__.<host>.taskmanager.<tm_id>.<job_name>.<operator_id>.<subtask_index>
    

    因为我们不需要所有的400.000个指标,是否有可能影响哪些指标被公开?

    1 回复  |  直到 6 年前
        1
  •  1
  •   David Anderson    6 年前

    您可能正在经历Flink的某些版本中出现的延迟度量的基数爆炸,其中延迟从每个源子任务跟踪到每个操作员子任务。这是弗林克1.7中提到的。见 https://issues.apache.org/jira/browse/FLINK-10484 https://issues.apache.org/jira/browse/FLINK-10243

    为了快速修复,您可以尝试通过配置 metrics.latency.interval 成为0。