반응형 DDQN2 DQN, DDQN, D3QN 비교 Abstract. 대표적 DRL algorithm인 DQN, DDQN(Double DQN), D3QN(Dueling DQN)을 등장 배경, 특징, 성능의 관점에서 비교해본다. DQN DQN background 1. Past RL challenges to high-dimensional input : hand-crafted feature representation에 의존하던 이전 RL은 high-dimensional input로부터 agent를 control하는 것에 취약했다. 2. DL advances & challenges to apply DL methods to RL : DL의 발전으로 raw sensory data에서 high-level feature를 추출 가능하게 되었지만 다음의 이유로 RL에 적.. 2022. 7. 4. DDQN(Double DQN) Deep Reinforcement Learning with Double Q-learning 0. Abstract ▶ Q-learning algorithm(ex. DQN)은 특정 조건에서 action-value를 overestimate하는 것으로 알려짐 → 그러나 실제로 그러한 overestimate가 일반적인지, performance에 해를 끼치지는 않는지, 예방은 가능한지는 이전에 알려지지 않은 상태 ▶ DQN algorithm이 일부 game에서 상당한 overestimate를 겪고 있음 ▶ 해당 논문은 tabular setting으로 도입된 Double Q-learning에 대한 아이디어가 large-scale fucntion approximation과 함께 작동하도록 일반화될 수 있음을 보여줌 →.. 2021. 12. 12. 이전 1 다음 반응형