상태 표현 방식에 따른 심층 강화 학습 기반 캐릭터 제어기의 학습 성능 비교
DC Field | Value | Language |
---|---|---|
dc.contributor.author | 손채준 | - |
dc.contributor.author | 권태수 | - |
dc.contributor.author | 이윤상 | - |
dc.date.accessioned | 2022-07-06T02:19:04Z | - |
dc.date.available | 2022-07-06T02:19:04Z | - |
dc.date.created | 2022-01-06 | - |
dc.date.issued | 2021-12 | - |
dc.identifier.issn | 1975-7883 | - |
dc.identifier.uri | https://scholarworks.bwise.kr/hanyang/handle/2021.sw.hanyang/138533 | - |
dc.description.abstract | 물리 시뮬레이션 기반의 캐릭터 동작 제어 문제를 강화학습을 이용하여 해결해나가는 연구들이 계속해서 진행되고 있다. 강화학습을 사용하여 문제를 풀기 위해서는 네트워크 구조, 하이퍼파라미터 튜닝, 상태(state), 행동(action), 보상(reward)이문제에 맞게 적절히 설정이 되어야 한다. 많은 연구들에서 다양한 조합으로 상태, 행동, 보상을 정의하였고, 성공적으로 문제에 적용하였다. 상태, 행동, 보상을 정의함에 다양한 조합이 있다보니 학습 성능을 향상시키는 최적의 조합을 찾기 위해서각각의 요소들이 미치는 영향을 분석하는 연구도 진행되고 있다. 우리는 지금까지 이뤄지지 않았던 상태 표현 방식에 따른강화학습성능에 미치는 영향을 분석하였다. 첫째로, root attached frame, root aligned frame, projected aligned frame 3가지로좌표계를 정의하였고, 이에 대해 표현된 상태를 이용하여 강화학습에 미치는 영향을 분석하였다. 둘째로, 상태를 정의 할 때, 관절의 위치, 각도로 다양하게 조합하는 경우에 학습성능에 어떠한 영향을 미치는지 분석하였다. | - |
dc.language | 한국어 | - |
dc.language.iso | ko | - |
dc.publisher | (사)한국컴퓨터그래픽스학회 | - |
dc.title | 상태 표현 방식에 따른 심층 강화 학습 기반 캐릭터 제어기의 학습 성능 비교 | - |
dc.title.alternative | Comparison of learning performance of character controller based on deep reinforcement learning according to state representation | - |
dc.type | Article | - |
dc.contributor.affiliatedAuthor | 권태수 | - |
dc.contributor.affiliatedAuthor | 이윤상 | - |
dc.identifier.doi | 10.15701/kcgs.2021.27.5.55 | - |
dc.identifier.bibliographicCitation | 한국컴퓨터그래픽스학회논문지, v.27, no.5, pp.55 - 61 | - |
dc.relation.isPartOf | 한국컴퓨터그래픽스학회논문지 | - |
dc.citation.title | 한국컴퓨터그래픽스학회논문지 | - |
dc.citation.volume | 27 | - |
dc.citation.number | 5 | - |
dc.citation.startPage | 55 | - |
dc.citation.endPage | 61 | - |
dc.type.rims | ART | - |
dc.identifier.kciid | ART002782745 | - |
dc.description.journalClass | 2 | - |
dc.description.isOpenAccess | N | - |
dc.description.journalRegisteredClass | kci | - |
dc.subject.keywordAuthor | 상태 표현 | - |
dc.subject.keywordAuthor | 참조 동작 추적 | - |
dc.subject.keywordAuthor | 물리 시뮬레이션 | - |
dc.subject.keywordAuthor | 심층강화학습 | - |
dc.subject.keywordAuthor | state representation | - |
dc.subject.keywordAuthor | reference motion tracking | - |
dc.subject.keywordAuthor | physics simulation | - |
dc.subject.keywordAuthor | Deep reinforcement learning | - |
dc.identifier.url | http://journal.cg-korea.org/archive/view_article?pid=jkcgs-27-5-55 | - |
Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.
222, Wangsimni-ro, Seongdong-gu, Seoul, 04763, Korea+82-2-2220-1365
COPYRIGHT © 2021 HANYANG UNIVERSITY.
Certain data included herein are derived from the © Web of Science of Clarivate Analytics. All rights reserved.
You may not copy or re-distribute this material in whole or in part without the prior written consent of Clarivate Analytics.