机器学习 – 大图像的语义分割

我正在处理有限数量的大尺寸图像,每个图像可以有3072 * 3072像素.为了使用FCN或U-net训练语义分割模型,我构建了大量训练集样本,每个训练图像为128 * 128.

在预测阶段,我所做的是将大图像切割成小块,与128 * 128的训练集相同,并将这些小块馈送到训练模型中,得到预测的掩模.之后,我将这些小块拼接在一起,以获得整个图像的蒙版.这是对大图像执行语义分割的正确机制吗?

最佳答案 输入图像数据:

我不建议将大图像(3072×3072)直接送入咖啡馆.

一批小图像将更好地适应内存,并行编程也将发挥作用.

数据扩充也是可行的.

大图输出:
对于大图像的输出,您最好在测试阶段将FCN的输入大小重新设置为3072×3072.因为,FCN层可以接受任何大小的输入.
然后,您将获得3072×3072分段图像作为输出.

点赞