THE HOUGH TRANSFORM’S IMPLICIT BAYESIAN FOUNDATION, Neil Toronto, Bryan S. Morse, Dan Ventura, Kevin Seppi.
这篇paper本身很简单,主要是讲一个定理的证明,也即文中的Theorem 3.3:
For all types of parameterizeable shapes, and for all voting distributions
vd(s, xi, yi), there exists a probability distribution P(xi, yi|s)
and a constant c such that, in the feasible domain of s, H(s) =
c + log P(s|x1, y1, ..., xk, yk).
这里s代表一个hypothesis space,(xi, yi)是所有observations中的某一个观测点,等式左边是Hough Votes,右边是一个log sum。乍看起来定理说的头头是道,但是很关键的一点是,定理中隐含了一个假设,如下:
P(xi, yi|s) = (1 / beta)* exp(vd(s, xi, yi))
作者没有说这样假设的合理性;如果可以这么假设的话,上边那个定理就根本不用证明了,因为那个定理很显然和这个假设说的是同一件事情。也就是说,这个“定理”完全是循环论证的结果。
当然,如果这个假设是正确的,或者说这个定理是正确的,那么很多基于ISM (implicit shape model) 的方法应该就是完全错误的,尽管或许实验结果是好的;比如那篇max-margin hough transform的paper (CVPR09)
然而如果这个假设不正确,那hough votes到底该怎么理解呢?或者可以直接说,hough votes基于一个没有很强的probabilistic解释的assumption:P(M | X) = \sum P(M | x_i),M 是模型参数,也即假设空间,X是所有observation的集合。或许hough methods就是基于这样的一个对后验的近似估计?
CVPR10有一篇文章 "On detection of Multiple Object Instances Using Hough Transform",其作者也试图用probabilistic的方法解释hough methods,但是呢,我觉得里边用到的assumptions可能太多太强了,看起来不是特别reasonable;不过也是一个很好的尝试吧 :)
No comments:
Post a Comment