분류 전체보기 50

[Optimization] SGDR: STOCHASTIC GRADIENT DESCENT WITH WARM RESTARTS, ICLR 2017

회사 과제에 적용해봤었음. SGD 사용 시, 그냥 base보다 성능 좋았음. 하지만 adaptive momentum 류 optimizer에서는 base보다 성능 떨어졌었음. warm start를 주기별로 합쳐서 앙상블 모델을 free로 얻는 효과가 있으나 원래 모델이 앙상블로 쓰였을 경우는 그닥 큰 메리트가 없었다. 꽤 옜날 논문이긴 하지만 아주 간단하게 시도해볼 수 있는 아이디어였다. 주기적으로 LR을 바꿔주면서 로컬 미니마를 피하기 위한 방법. 이때 주기는 cosine annealing 방법으로 적용함. (아래 그래프가 LR 주기를 나타내는 것임) 그리고 덤으로 주기 수 만큼 앙상블 모델을 얻어서 더 높은 정확도에 도달하였다고 함 i번째 학습단계(epoch)에서 LR은 아래와 같이 cosine ann..

IT/Paper 2021.03.06

[RL] Regularizing Trajectory Optimization with Denoising Autoencoders, NeurIPS 2019

2/16 세미나 했던 것. 영어발표용으로 만들었던 ppt가 있어서 오늘은 영어로 포스팅. 한 줄 요약하면 planing할때 exploitation만으로 exploration효과를 줄만한. 가본것중에서 최대한 trajectory 최적화하는게 목적이고, 어떻게 하면 더 잘 플래닝 할것인지에 대한 연구. Objective function의 aciton에 대한 derivative자체를 DAE 식으로 근사함 I am gonna introduce Regularizing Trajectory Optimization with Denoising Autoencoders which is presented in Neurips twenty nineteen. This paper propose trajectory optimizati..

IT/Paper 2021.03.04

[XAI] Fooling Neural Network Interpretations via Adversarial Model Manipulation, NeurIPS 2019

따라서 본 paper의 궁극적인 목표는 해석방법의 Robustness 와 Stability 개선에 대해 활발한 연구를 더 부르기 위한 것이다. 본 paper의 contribution은 다음과 같다. 1. Adversarial model manipulation 을 제시하면서 뉴럴넷 해석의 안정성에 대한 개념을 고려함 2. 기존 LRP, Grad-CAM, SimpleGradient 등은 본 paper Adversarial model manipulation에 취약했음을 보였고, 정확도는 각각 2%, 1% 떨어졌다. (Top-1, Top-5 Image net validation set) Figure 1-b 참고 3. Fooled explanation는 전체 validation set을 일반화하는 것을 보였고 특..

IT/Paper 2021.03.04

[XAI] RAP, Relative Attributing Propagation: Interpreting the Comparative Contributions of Individual Units in Deep Neural Networks, AAAI 2020

히히 latex 수식넣는 법 발견해서 글이 윤택해졌다 짱편하구먼ㅎ_ㅎ DNN output에 대한 결정에 대해 input image 각 location의 positive/negative 기여도를 고려하기 위해 Bach et al. 2015 소개한 것이 LRP. 예측에 대해 relevance score를 propagate 시켜나감으로써 input 중요도를 보여준다. LRP에서 언급되는 relevance propagation을 짧게 요약하자면, 아래 왼쪽 그림의 분류 결과값 $a_{7}$ 로부터 분해될 수 있음을 보여준다. 최종적으로 ${R_d}^{(1)}$에 대해 input layer에 대한 각 node들의 relevance값을 구하는 것이 목표이다. 그러나 기존 연구는 positive/negative re..

IT/Paper 2021.03.02

how to submit

화이팅..언제 제출할꺼니? 일단 제출하고볼까? 온라인제출: mts-ncomms.nature.com/cgi-bin/main.plex 접수 된 원고의 양으로 인해 모든 제출은 온라인 제출 시스템을 통해 이루어져야합니다. 이 시스템을 사용하여 저자는 원고 파일 (텍스트, 그림, 동영상)을 저희 사무실에 직접 업로드하고 심사 과정에서 원고 상태를 확인할 수 있습니다. 또한 검토자는 온라인으로 원고에 액세스 할 수 있으므로 검토 프로세스가 빨라집니다. 수정 된 원고는 편집자 결정 편지에 제공된 링크를 통해 업로드해야합니다. 수정본을 새로운 원고로 제출하지 마십시오. 편집, publish 정책 : www.nature.com/ncomms/journal-policies/editorial-publishing-polici..

IT 2020.10.08

[Paper] AutoCkt: Deep Reinforcement Learning of AnalogCircuit Designs

AutoCkt: Deep Reinforcement Learning of Analog Circuit Designs - University of California, Berkeley , Accepted to Design Automation and Test in Europe, 2020 RL기반 회로설계 플랫폼(AutoCkt) 논문입니다. DATE 2020 에 accepted 되었는데 DAC처럼 크게 영향력있는 곳은 아니어보이지만, transfer learning을 통해 exploration 잘된 Agent로 적용했을 때 바로 gain에는 도달한 후, 다른 target에 도달해가는 내용이 있어서 이 부분은 좋은 것 같습니다. 전이학습 방법에 대해서는 어느정도 제약사항이 있어보이긴 합니다. 1. 현존하는 진화알고..

IT/Paper 2020.09.08

[Paper] A Composable Specification Language for Reinforcement Learing Tasks

아직 코드는 못돌려봄. 작성중 multiple objective를 위해 control task 명시를 위한 language를 제안함 reaching q reaching p avoind region O positive fule : reward function state space -> reward shaping?? q에 가까워지면서 p에 닿지 않는 partial credit을 만드는 reward. control task를 명시하기 위한 language를 제안했음 predicates: 서술어 disjunctions: 괴리? or primitives: 기초요소 user가 state에 대한 objective, constarint를 명시하면 -> 순차적으로 primitive를 사용자는 given task를 수행하..

IT/Paper 2020.09.05

[Model] Sequence to Sequence Learning with Neural Networks

LSTM구조를 갖는 Encoder+Decoder 방식을 이용한 번역모델을 sequence to sequence 구조로 소개한 논문이다! Encoder : EOS token이 나올 때까지 input을 계속 넣어주고 누적된 cell state(latent vector)를 갖는 context로 변환시킨다. 해당 context에는 입력 문장의 모든 단어들의 정보가 요약 되어있을 것을 기대한다. Decoder: Encoder에서 마지막으로 나온 Cell state를 hidden state로 받아서, sequence를 생성한다. Decoder의 경우 이전 셀의 output이 다음 셀의 input으로 들어가며, EOS를 생성할 때까지 작업이 반복된다. 학습에 사용된 모델구조 -> 4 layer LSTM, 1000 c..

IT/Paper 2020.09.05