代码之家  ›  专栏  ›  技术社区  ›  lampShadesDrifter

gcp dataproc sqoop数据(或在上运行其他作业)是否可以从本地数据库?

  •  0
  • lampShadesDrifter  · 技术社区  · 6 年前

    gcp dataproc sqoop是否可以从本地数据库导入数据以放入gcp存储(不带gcp vpc)?

    我们有一个远程Oracle数据库连接到 本地网络 通过VPN隧道,我们使用Hadoop集群通过 阿帕奇斯库普 . 希望用gcp dataproc cluster替换此进程以运行sqoop作业和gcp存储。 发现这篇文章似乎在做类似的事情 Moving Data with Apache Sqoop in Google Cloud Dataproc ,但它假定用户 GCP专有网络 (我无意购买)。

    所以我的问题是:

    • 如果没有这个vpc连接,云dataproc集群是否知道如何使用 job submission API ?
    • 如果是这样的话,这将如何工作(也许我对Hadoop作业如何工作/获取数据还不够了解)?
    • 如果不是,还有别的办法吗?
    0 回复  |  直到 6 年前
        1
  •  2
  •   Igor Dvorzhak    6 年前

    不使用 VPC/VPN 您将无法向本地数据库授予dataproc访问权限。

    如果VPN更好地满足您的需求,您可以使用它而不是使用vpc: https://cloud.google.com/vpn/docs/

    唯一的选择是将本地数据库打开到Internet,这样dataproc就可以在不使用vpc/vpn的情况下访问它,但这本身是不安全的。