代码之家  ›  专栏  ›  技术社区  ›  Jim OHalloran

Sagemaker目标检测用于预测的图像大小?

  •  0
  • Jim OHalloran  · 技术社区  · 6 年前

    我使用的是AWS Sagemaker“内置”对象检测算法(SSD),我们已经在一系列带注释的512x512图像(image_shape=512)上对其进行了培训。我们已经部署了一个端点,当使用它进行预测时,我们会得到混合的结果。

    如果我们用来预测的图像大约是512x512大小,我们会得到很好的精度和结果。如果图像明显更大(例如8000x1000),我们会得到非常不准确的结果,或者没有结果。如果我手动将这些大图像调整到512x512像素,我们要寻找的功能将无法再被肉眼识别。这表明,如果我的端点正在调整图像的大小,那么这就解释了为什么模型在挣扎。

    注: 虽然像素的尺寸很大,但我的图像基本上是白色背景上的线条图。它们的颜色很少,有大块的纯白,所以压缩性很好。我没有达到6MB的请求大小限制。

    所以,我的问题是:

    1. 将模型训练为image_shape=512是否意味着我的预测图像也应该是相同的大小?
    2. 有没有一个普遍接受的方法做物体检测非常大的图像?我可以设想如何将图像分割成更小的图块,然后将每个图块输入到我的模型中,但是如果有“开箱即用”的东西可以帮我完成,那么这将节省一些精力。
    1 回复  |  直到 6 年前
        1
  •  1
  •   Vineet Khare    6 年前

    你的理解是正确的。端点根据参数调整图像大小 image_shape . 要回答您的问题:

    1. 只要训练数据和预测数据之间的对象比例(即像素的扩展)相似,训练模型就可以工作。
    2. 裁剪是一种选择。另一种方法是像大卫建议的那样为大图像和小图像训练单独的模型。