![]() |
1
3
此功能在Ambari 3.0之前不会准备就绪。看见 AMBARI-18678 & AMBARI-14714 不过,根据您想要升级的内容,我不建议这样做。 例如,HBase、Hive和Spark还不支持Hadoop 3.0。HDP的流媒体组件,如Spark、Kafka、NiFi,似乎发布版本的频率更高,而Ambari之外还有其他方法可以升级这些版本。 您不需要HDP或Ambari来管理Hadoop,但它确实是集群的一个很好的包和中央管理组件。如果您自己升级部件,则可能会导致不兼容。 HDP作为一个整体进行测试。您在Ambari中设置的Hortonworks repos限制了您可以使用的组件版本,但这并不能阻止您使用自己的存储库以及Puppet/Chef在Hadoop环境中安装其他软件。在这一点上,您唯一失去的是Ambari的管理和配置。 您可以尝试定义自己的Ambari Mpacks来安装其他软件,但请确保您有足够的资源来维护它。 |
![]() |
2
1
Hortonworks文档中详细记录了Ambari升级步骤,您可以按照以下链接升级Ambari+Hadoop组件 下面提供了所有2.6包URL 您可以使用yum或apt-get或其他包管理器进行单个组件(HADOOP-包括HDFS和YARN、HIVE、OOZIE等)升级,但是由于依赖性问题,不建议在HADOOP集群中进行单个组件升级-服务有时可能会失败,因此最好完成HDP堆栈升级,而不是升级单个组件。
|