GreyReID:A Two-stream Deep Framework with RGB-grey Information for Person Re-identification
Lei Qi, Lei Wang, Jing Huo, Yinghuan Shi, Yan Gao
Nanjing University
University of Wollongong, Australia 2019
提出了用灰度图提升行人re-id的效果,并提出了一个双路结构。
GreyReID:A Two-stream Deep Framework with RGB-grey Information for Person Re-identification
Lei Qi, Lei Wang, Jing Huo, Yinghuan Shi, Yan Gao
Nanjing University
University of Wollongong, Australia 2019
提出了用灰度图提升行人re-id的效果,并提出了一个双路结构。
上周五是这个博客建立周年,本来打算当天写点啥的,结果太忙还是给拖到了今天。
一年过去了,从对深度学习的了解只有神经网络,到今天的博客有了自己的60+论文学习笔记,收获还是不少。涉猎的领域有点杂,目标检测,行人重识别、语义分割、人群检测、人脸检测、人脸识别,也是受公司业务影响吧。学过PyCUDA,写点简单程序没问题,最近也在了解剪枝,学习distiller框架中。数学方面又重新在学习线代和概率统计,但都还没完成。主要工作还是集中在行人检测上。动手训练的机会有点少,大部分精力都集中在项目落地方面。
写过一个爬虫,爬了汽车之家的所有图片、车型,训练了一下颜色分类,也算是自己的第一个模型了。后面用pytorch自己试着弄了YOLOv3。今年开始学习mmdetection框架,并选择了FCOS,用几个行人数据集训练了一个自己的行人检测模型。最近忙于参加比赛,为了比赛阅读了一些re-id相关的论文,但也没时间写博客了,都一个月没更新了都。
继续坚持走下去吧。
Semantic Image Synthesis with Spatially-Adaptive Normalization
Taesung Park, Ming-Yu Liu, Ting-Chun Wang,,Jun-Yan Zhu
UC Berkeley
NVIDIA 3MIT CSAIL 2019
NVIDIA提出的一篇GAN,并基于这个算法开发了GauGAN,可以去尝试着玩一下他们的DEMO,效果非常惊艳。
这篇论文提出了Spatially-adaptive denormalization,解决了normalization损失语义信息的问题。正文里着重介绍了 SPatially-Adaptive (DE)normalization (SPADE),更多信息还需要去看附录。
Automatic adaptation of object detectors to new domains using self-training
Aruni RoyChowdhury, Prithvijit Chakrabarty, Ashish Singh, SouYoung Jin, Huaizu Jiang, Liangliang Cao, Erik Learned-Miller
College of Information and Computer Sciences University of Massachusetts Amherst, 2019
无监督的目标检测领域适应方法。代码与模型已开源。创新点主要在于使用目标追踪方法来补充已训练好的检测器在目标域生成的伪标签,以及多种softlabel方案。从文中数据来看效果很不错
Guanshuo Wang, Yufeng Yuan, Xiong Chen, Jiwei Li, Xi Zhou
Cooperative Medianet Innovation Center, Shanghai Jiao Tong University
CloudWalk Technology, 2018
很简单的一篇行人Re-ID论文,效果却很好。可能是因为在每个局部、全局、分支的全局特征都有独立的训练目标。
Densely Connected Pyramid Dehazing Network
He Zhang, Vishal M. Patel
Rutgers University, Piscataway, 2018
一篇有开源端到端的单张图像去雾算法。也是第一个端到端的图像去雾算法。
Segmentation Is All You Need
Zehua Cheng, Yuxiang Wu, Zhenghua Xu, Thomas Lukasiewicz, , Weiyang Wang
Hebei University of Technology, China
University of Oxford, United Kingdom
AISA Research, Hunan Agricultural University, China
SnowCloud.ai, China, 2019
这篇论文直接通过bbox生成弱监督的分割标注,训练热图,再利用轮廓追踪算法得到轮廓,生成bbox。挺有新意,性能看起来也不错。不过没有公布速度;而且弱监督的标注,为何训练处的模型能产生更准确地热图;为何要训练预测3个热图,再将结果组合为instance aware segmentation map,而不是直接预测segmentation map,是因为这样会提升instance aware性能吗;轮廓追踪算法的对宽度变化剧烈的是否敏感;这些都是我阅读后的一些困惑。
6.14更新:后续思考后,关于弱监督的分割标注为何能够用问题,我有这么几个结论:
1.首先根据本论文引用的[8]J. Dai, K. He, and J. Sun, “Boxsup: Exploiting bounding boxes to supervise convolutional networks for semantic segmentation,” in Proceedings of the IEEE International Conference on Computer Vision, 2015.,像素级分割信息没有完全被模型利用, 而且像素级分割数据少。
2.本来最终目的也不是为了生成完美的分割,即使最终分割只能达到标注的椭圆状,用于生成bbox也完全足够了
Deep Anomaly Detection for Generalized Face Anti-Spoofing
Daniel Pérez-Cabo, David Jiménez-Cabello, Artur Costa-Pazo, Roberto J. López-Sastre
Gradiant, University of Alcala, Spain, 2019
通常,人脸活体分类被当做二分类问题,使用softmax训练。没有显式地考虑类的紧凑程度,不同的类在特征空间中可能交叠。且训练时容易过拟合数据集,因此在部署时性能会急剧下降。这篇论文以深度度量学习的方法来进行活体检测。
A Non-Intrusive Method of Face Liveness Detection Using Specular Reflection and Local Binary Patterns
Shivang Bharadwa, Bhupendra Niranjan, Anant Kumar
Manipal Academy of Higher Education, Manipal Karnataka, India, 2019
最近在学习单目可见光静默式人脸活体检测。使用深度学习解决这个的很多篇论文都来自MSU,网上的相关解读也比较多了。这篇来自印度的论文是这周四才投递到arxiv的,一个用传统图像特征+机器学习解决人脸活体检测的方法。在NUAA活体数据集上获得了比肩深度学习方法的性能。
CenterNet: Keypoint Triplets for Object Detection
Kaiwen Duan, Song Bai, Lingxi Xie, Honggang Qi, Qingming Huang, Qi Tian
中科院
牛津大学
华为诺亚方舟实验室, 2019
CornerNet的另一个升级版,COCO上47的mAP是SOTA的one-stage目标检测精度。代码与模型已开源。