2018-02-19:研究室的1篇论文被计算机视觉与模式识别领域的顶级国际会议CVPR 2018接收
研究室独立完成的1篇论文被CVPR 2018接收:Xin Huang and Yuxin Peng, "Deep Cross-media Knowledge Transfer", 31th IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Salt Lake City, Utah, USA, Jun. 18-22, 2018。CVPR是计算机视觉与模式识别领域的顶级国际会议,也是CCF推荐的A类会议。祝贺黄鑫同学!
跨媒体检索的准确率往往依赖于有标注的训练数据,然而由于跨媒体训练样本的收集与标注非常困难,训练样本不足成为了跨媒体检索走向实际应用的一大挑战。本文提出了深度跨媒体知识迁移方法,能够基于大规模跨媒体数据进行知识迁移,解决了小规模跨媒体数据的训练样本不足问题。具体地,一方面提出两级迁移网络,在媒体级迁移中实现单媒体语义知识共享,在关联级迁移中实现跨媒体关联知识共享;另一方面提出渐进迁移机制,以源域模型作为参考模型进行迭代反馈,自适应地选择迁移难度由小到大的样本进行知识迁移,使得迁移过程能够逐渐减小跨媒体域间差异,提高了模型的鲁棒性与检索准确率。以本研究室构建的大规模跨媒体数据集XMediaNet为源域,以3个广泛使用的小规模跨媒体数据集为目标域进行知识迁移与检索,均取得了比现有方法更高的检索准确率。
论文下载: Deep Cross-media Knowledge Transfer【pdf】
跨媒体检索的准确率往往依赖于有标注的训练数据,然而由于跨媒体训练样本的收集与标注非常困难,训练样本不足成为了跨媒体检索走向实际应用的一大挑战。本文提出了深度跨媒体知识迁移方法,能够基于大规模跨媒体数据进行知识迁移,解决了小规模跨媒体数据的训练样本不足问题。具体地,一方面提出两级迁移网络,在媒体级迁移中实现单媒体语义知识共享,在关联级迁移中实现跨媒体关联知识共享;另一方面提出渐进迁移机制,以源域模型作为参考模型进行迭代反馈,自适应地选择迁移难度由小到大的样本进行知识迁移,使得迁移过程能够逐渐减小跨媒体域间差异,提高了模型的鲁棒性与检索准确率。以本研究室构建的大规模跨媒体数据集XMediaNet为源域,以3个广泛使用的小规模跨媒体数据集为目标域进行知识迁移与检索,均取得了比现有方法更高的检索准确率。