IT/Paper 23

[Paper] AutoCkt: Deep Reinforcement Learning of AnalogCircuit Designs

AutoCkt: Deep Reinforcement Learning of Analog Circuit Designs - University of California, Berkeley , Accepted to Design Automation and Test in Europe, 2020 RL기반 회로설계 플랫폼(AutoCkt) 논문입니다. DATE 2020 에 accepted 되었는데 DAC처럼 크게 영향력있는 곳은 아니어보이지만, transfer learning을 통해 exploration 잘된 Agent로 적용했을 때 바로 gain에는 도달한 후, 다른 target에 도달해가는 내용이 있어서 이 부분은 좋은 것 같습니다. 전이학습 방법에 대해서는 어느정도 제약사항이 있어보이긴 합니다. 1. 현존하는 진화알고..

IT/Paper 2020.09.08

[Paper] A Composable Specification Language for Reinforcement Learing Tasks

아직 코드는 못돌려봄. 작성중 multiple objective를 위해 control task 명시를 위한 language를 제안함 reaching q reaching p avoind region O positive fule : reward function state space -> reward shaping?? q에 가까워지면서 p에 닿지 않는 partial credit을 만드는 reward. control task를 명시하기 위한 language를 제안했음 predicates: 서술어 disjunctions: 괴리? or primitives: 기초요소 user가 state에 대한 objective, constarint를 명시하면 -> 순차적으로 primitive를 사용자는 given task를 수행하..

IT/Paper 2020.09.05

[Model] Sequence to Sequence Learning with Neural Networks

LSTM구조를 갖는 Encoder+Decoder 방식을 이용한 번역모델을 sequence to sequence 구조로 소개한 논문이다! Encoder : EOS token이 나올 때까지 input을 계속 넣어주고 누적된 cell state(latent vector)를 갖는 context로 변환시킨다. 해당 context에는 입력 문장의 모든 단어들의 정보가 요약 되어있을 것을 기대한다. Decoder: Encoder에서 마지막으로 나온 Cell state를 hidden state로 받아서, sequence를 생성한다. Decoder의 경우 이전 셀의 output이 다음 셀의 input으로 들어가며, EOS를 생성할 때까지 작업이 반복된다. 학습에 사용된 모델구조 -> 4 layer LSTM, 1000 c..

IT/Paper 2020.09.05