代码之家  ›  专栏  ›  技术社区  ›  strzelecki.maciek

如何升级ambari中的组件

  •  1
  • strzelecki.maciek  · 技术社区  · 7 年前

    我希望有hadoop和其他几个更新版本的软件包,而当前的ambari和HDP2.6.3允许使用这些软件包。

    是否有这种单组件版本升级的选项?

    2 回复  |  直到 7 年前
        1
  •  3
  •   OneCricketeer Gabriele Mariotti    7 年前

    此功能在Ambari 3.0之前不会准备就绪。看见 AMBARI-18678 & AMBARI-14714

    不过,根据您想要升级的内容,我不建议这样做。

    例如,HBase、Hive和Spark还不支持Hadoop 3.0。HDP的流媒体组件,如Spark、Kafka、NiFi,似乎发布版本的频率更高,而Ambari之外还有其他方法可以升级这些版本。

    您不需要HDP或Ambari来管理Hadoop,但它确实是集群的一个很好的包和中央管理组件。如果您自己升级部件,则可能会导致不兼容。

    HDP作为一个整体进行测试。您在Ambari中设置的Hortonworks repos限制了您可以使用的组件版本,但这并不能阻止您使用自己的存储库以及Puppet/Chef在Hadoop环境中安装其他软件。在这一点上,您唯一失去的是Ambari的管理和配置。

    您可以尝试定义自己的Ambari Mpacks来安装其他软件,但请确保您有足够的资源来维护它。

        2
  •  1
  •   SachinJose    7 年前

    Hortonworks文档中详细记录了Ambari升级步骤,您可以按照以下链接升级Ambari+Hadoop组件

    https://docs.hortonworks.com/HDPDocuments/Ambari-2.4.0.0/bk_ambari-upgrade/content/upgrading_ambari.html

    https://docs.hortonworks.com/HDPDocuments/Ambari-2.4.0.0/bk_ambari-upgrade/content/upgrading_hdp_stack.html

    下面提供了所有2.6包URL

    https://docs.hortonworks.com/HDPDocuments/Ambari-2.6.0.0/bk_ambari-installation/content/hdp_26_repositories.html

    您可以使用yum或apt-get或其他包管理器进行单个组件(HADOOP-包括HDFS和YARN、HIVE、OOZIE等)升级,但是由于依赖性问题,不建议在HADOOP集群中进行单个组件升级-服务有时可能会失败,因此最好完成HDP堆栈升级,而不是升级单个组件。