NeurIPS 2019에 spotlight으로 발표된 논문이다. Adversarial example은 non robust feature로 부터 발생되는 것임을 보이며, 즉 모델의 버그가 아니고 data의 내재적인 특성으로 인해 발생되는 현상이다 라고 주장하는 논문임 DNN이 adversarial example에 취약하다는 것은 잘 알려져있다. 이전 연구들은 이런 원인이 input space의 high-dims에서 오거나 train data의 통계적인 fluctuation으로부터 발생한다거나, 또는 우리가 사용하는 relu의 positive부분에서 local linearity가 발생해서 공격이 쉽게 당한다. 등 다양한 주장이 있었다. 또한 이러한 attack 을 방어하는 여러 전략들을 다뤄져왔다. 이 논문..