乐趣区
作者:
在
注意力机制最好不要间接在原有的骨干网络(backbone)中增加,免得毁坏原有的预训练参数,最好是backbone之后增加。增加时,留神留神输出的channels的数量。
您的邮箱地址不会被公开。 必填项已用 * 标注
评论 *
显示名称 *
邮箱 *
网站
在此浏览器中保存我的显示名称、邮箱地址和网站地址,以便下次评论时使用。
Δ
这个站点使用 Akismet 来减少垃圾评论。了解你的评论数据如何被处理。
发表回复