代码之家  ›  专栏  ›  技术社区  ›  Hayden

1)从整个训练集训练一个CNN和2)从训练集的子集然后从整个训练集中训练有什么区别?

  •  0
  • Hayden  · 技术社区  · 7 年前

    我正在训练一个细分网络 U-net LIDC-IDRI

    1. 从头开始在整个训练集上训练模型(40k步、180k步)。
    2. 在整个训练集的10%上训练模型。收敛(30k步)后,继续在整个训练集(10k步)上训练模型。

    Dice coefficient 作为损耗函数,它也用于V-net架构中( paper ),用方法2训练的模型总是优于方法1。前者可以达到0.735的骰子分数,而后者只能达到0.71。

    1 回复  |  直到 7 年前
        1
  •  0
  •   Alexey Ushakov    7 年前

    嗯,我读了你的答案,决定试试看,因为这相当简单,因为我也一直在LIDC-IDRI上训练VNet。通常我从一开始就对整个数据集进行训练。选项2)提高了dice的速度,但很快在验证时下降到2%,甚至在使网络能够学习它没有恢复的整个数据集之后,也训练了dice。当然,是在增加。似乎我10%的数据集不太具有代表性,而且严重过度拟合。