python – 为什么局部响应范数纸方程和张量流实现之间存在这种差异?

我在Alex的 paper中发现了关于本地响应规范化的这个等式:

  
《python – 为什么局部响应范数纸方程和张量流实现之间存在这种差异?》

正如我们在上面看到的那样,在我们计算总和之后,将功率提高,将其与alpha相乘,然后在添加k之后添加.

但是,我在TensorFlow文档中看到它显示为

sqr_sum[a, b, c, d] =
  sum(input[a, b, c, d - depth_radius : d + depth_radius + 1] ** 2)
output = input / (bias + alpha * sqr_sum ** beta)

测试版仅针对总和筹集.

为什么这里有差异?

另外,当我查看TensorFlow代码本身时,我看到了这个:

output[b, r, c, d] /= (
            np.power(bias + alpha * np.sum(patch * patch), beta))

哪个看起来正确?

我有点困惑.有人可以纠正我吗?

最佳答案 这是Tensorflow文档中的一个错误.

它是在2月26日由此提交修复的:
https://github.com/tensorflow/tensorflow/commit/ab48dbd4ac2095548a5bc8505e08e751d409727f#diff-632987400e5affbcdba4533444460b0e

点赞