我使用的是AWS Sagemaker“内置”对象检测算法(SSD),我们已经在一系列带注释的512x512图像(image_shape=512)上对其进行了培训。我们已经部署了一个端点,当使用它进行预测时,我们会得到混合的结果。
如果我们用来预测的图像大约是512x512大小,我们会得到很好的精度和结果。如果图像明显更大(例如8000x1000),我们会得到非常不准确的结果,或者没有结果。如果我手动将这些大图像调整到512x512像素,我们要寻找的功能将无法再被肉眼识别。这表明,如果我的端点正在调整图像的大小,那么这就解释了为什么模型在挣扎。
注:
虽然像素的尺寸很大,但我的图像基本上是白色背景上的线条图。它们的颜色很少,有大块的纯白,所以压缩性很好。我没有达到6MB的请求大小限制。
所以,我的问题是:
-
将模型训练为image_shape=512是否意味着我的预测图像也应该是相同的大小?
-
有没有一个普遍接受的方法做物体检测非常大的图像?我可以设想如何将图像分割成更小的图块,然后将每个图块输入到我的模型中,但是如果有“开箱即用”的东西可以帮我完成,那么这将节省一些精力。