![]() |
1
1
这可能只是因为模型的权重每次都是随机生成的。假设,我训练了两个具有相同数据和超参数的模型。由于它们最初有不同的权重,因此它们的损失和精度会有所不同。但是,经过一定数量的历元之后,它们都会收敛到同一点,在这个点上,两个模型的精度和损失似乎相等。这一点可能是关于损失的最小值,因为数据是相同的。否则,这可能是两个模型获得相同收敛路径的点。
|