본문 바로가기
반응형

논문 리뷰/과거 RL 정리5

Semi-supervised classification with GCN Semi-Supervised Classification with Graph Convolutional Networks 0. Abstract ▶ graph에서 직접 작동하는 convolution neural network의 효율적인 변형을 기반으로한, graph-structed data에 대한 semi-supervised 학습을 위한 접근 방식 제시 ▶ spectal graph convolution의 localized first-order approximation를 통해 convolution architecture를 선택하도록 동기를 부여 ▶ 해당 model은 graph의 edge' number에서 linear하게 확장되고 local graph structure와 node' feature을 모두 encodi.. 2022. 1. 21.
Prioritized Experience Replay Prioritized Experience Relpay 0. Abstract ▶ experience replay를 통해 online RL는 과거의 experiences를 기억하고 재사용 가능했으며, 이전 작업에서 replay transition은 replay memory에서 uniformly sampling → 그러나 이런 접근 방식은 중요성에 관계없이 원래 경험했던 것과 동일한 빈도로 transition을 단순히 replay ▶ 해당 논문에서는 중요한 transition을 더 자주 replay하여 더 효과적으로 학습할 수 있도록 prioritizing experience framework를 개발 → prioritized experience replay DQN은 Atari game에서 uniform rep.. 2021. 12. 29.
Dueling DQN Dueling Network Architectures for Deep Reinforcement Learning 0. Abstract ▶ 최근 몇년 동안 RL에서 deep representation를 사용하는데 많은 성공을 거두었으나 이러한 application 중 상당수는 CNN, LSTM, auto-encoders와 같은 기존 architecture 사용 ▶ 해당 논문에서는 Dueling network라는 두개의 개별 estimators인 RL을 위한 새로운 neural network architecture를 제시 → 하나는 state-value function, 또 다른 하나는 state-dependent action-advantage function으로 사용 → 이러한 factoring은 기본 RL.. 2021. 12. 14.
DDQN(Double DQN) Deep Reinforcement Learning with Double Q-learning 0. Abstract ▶ Q-learning algorithm(ex. DQN)은 특정 조건에서 action-value를 overestimate하는 것으로 알려짐 → 그러나 실제로 그러한 overestimate가 일반적인지, performance에 해를 끼치지는 않는지, 예방은 가능한지는 이전에 알려지지 않은 상태 ▶ DQN algorithm이 일부 game에서 상당한 overestimate를 겪고 있음 ▶ 해당 논문은 tabular setting으로 도입된 Double Q-learning에 대한 아이디어가 large-scale fucntion approximation과 함께 작동하도록 일반화될 수 있음을 보여줌 →.. 2021. 12. 12.
반응형