-
Notifications
You must be signed in to change notification settings - Fork 30
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请问一下边框回归模型的计算方式是怎么来的 #1
Comments
@JackZiLong 不得不说你读的非常细,你的回答很好地解决了我的问题,感谢 我在一个阐述RCNN问题的博客看到这样一句话:20类即20个Bounding-box 回归器训练,每一类需要一个独立的回归器训练吗?我在作者的代码中看到的只是训练了一个回归器,这一块的矛盾问题出在哪里? 下一步我打算接着看fast rcnn,希望能继续和你一起讨论学习,同时我想问个题外话,就是你是否有看到过比较好的RCNN的keras实现,我现在希望变看代码边看论文学习,多版本的代码更有助于我自己在实现时候的学习 |
@Ostnie 非常感谢你的认同 你提到的针对每一个类别分别需要独立的训练一个Bounding-box 回归器,论文我没有找到详细的说明。不过我从论文作者的 R-CNN 代码中找到具体的实现过程,可以发现你的说法是对的,即20个类需要20个Bounding-box 回归器训练。 如果对你对这些实现细节感兴趣,可以尝试阅读具体代码(RCNN),不过原作者是用matlab实现,且代码中存在很多其他方面的处理,阅读起来可能不是特别好理解。但是,我们只需要注意“Bounding-box 回归器训练是否针对每个类别单独训练”,这样我们只需要理解代码
可以发现,对于每一个类别 另外,再多说一点我的个人理解,Github上有很多关于 RCNN、Fast RCNN 等的实现,每个人都会根据自己的理解以及实际应用情况添加或删减一些实现细节,不过我们可以结合多份 代码实现过程 来保证某些重要细节不会被我们忽略,但具体求证还是以 原论文作者的 代码实现为准。不过,回过头来考虑,我们阅读论文只是理解其论文思想就行,代码只是帮助我们理解。因为这些细节很可能在后来的技术取代掉,比如这一部分在 Faster-RCNN 就被取缔。 这里列出我参考的github: |
@JackZiLong 感谢,你严谨且热心的态度是我的榜样,向你学习! |
想请教下,分析可以得到log(p_w/g_w)和t_w在一定条件下是线性分布,但实际我们需要处理的是(pool5的特征,t)这个数据,(log(p_w/g_w),t_w)符合线性分布,(pool5的特征,t)就符合线性分布吗 |
我在看RCNN论文时就是没看懂边框回归这一块应该如何实现,我现在最大的疑问是您代码的边框回归为什么会产生五个值,第一个表示什么?这个我在作者的论文中完全没有看到,能不能解释一下
以及,为什么边框回归的训练数据是用的4096维的特征数据,按说不应该就是这些区域的图片信息么?
The text was updated successfully, but these errors were encountered: