代码之家  ›  专栏  ›  技术社区  ›  Cedar

自定义学习率随张量、lambda和python变量绑定而衰减

  •  1
  • Cedar  · 技术社区  · 7 年前

    我正在尝试建立一个自定义的张量流估计器并对其进行训练。

    model = tf.estimator.Estimator(
        model_fn=model_fn,
        params={
        ...
        "optimizer": tf.train.MomentumOptimizer(
            learning_rate=0.001 * tf.train.global_step()**(-0.75),
            momentum=0.5
            ),
        ...
        }
    )
    model.train()
    

    我该怎么办?

    我现在知道的

    经过一番摸索,我发现上述方法显然行不通,因为 tf.train.global_step() 取决于是否有一个会话,而我至少在打电话之前没有会话 model.train() .

    我也知道可能有某种巫术可以让我推迟对你的召唤 直到我的车真正开动 tf.Estimator

    1解决这个问题 2了解变量绑定的工作原理 三。了解如何 tf.train.global\u步骤() 获取张量对象,以及张量到底是什么。

    0 回复  |  直到 7 年前