Detailed Information

Cited 0 time in webofscience Cited 0 time in scopus
Metadata Downloads

MSaGAN: 얼굴 속성 편집을 위한 유도 마스크와 다중작업 학습 접근을 사용한 개선된 SaGAN

Full metadata record
DC Field Value Language
dc.contributor.author양현석-
dc.contributor.author한복규-
dc.contributor.author문영식-
dc.date.accessioned2021-06-22T09:15:11Z-
dc.date.available2021-06-22T09:15:11Z-
dc.date.issued2020-05-
dc.identifier.issn1598-849X-
dc.identifier.issn2383-9945-
dc.identifier.urihttps://scholarworks.bwise.kr/erica/handle/2021.sw.erica/1716-
dc.description.abstract최근 얼굴 속성 편집(facial attribute editing)의 연구는 GAN(Generative Adversarial Net)과 인코더- 디코더(encoder-decoder) 구조를 활용하여 사실적인 결과를 얻고 있다. 최신 연구 중 하나인SaGAN(Spatial attention GAN)은 공간적 주의 기제(spatial attention mechanism)를 활용하여 얼굴 영상에서 원하는 속성만을 변경할 방법을 제안하였다. 그러나 불충분한 얼굴 영역 정보로 인하여때로 부자연스러운 결과를 얻는 경우가 발생한다. 본 논문에서는 기존 연구의 한계점을 개선하기위하여 유도 마스크(guide mask)를 학습에 활용하고, 다중작업 학습(multitask learning) 접근을 적용한 개선된 SaGAN(MSaGAN)을 제안한다. 폭넓은 실험을 통해 마스크 손실 함수와 신경망 구조에따른 얼굴 속성 편집의 결과를 비교하여 제안하는 방법이 기존보다 더 자연스러운 결과를 효율적으로 얻을 수 있음을 보인다.-
dc.description.abstractRecently, studies of facial attribute editing have obtained realistic results using generative adversarial net (GAN) and encoder-decoder structure. Spatial attention GAN (SaGAN), one of the latest researches, is the method that can change only desired attribute in a face image by spatial attention mechanism. However, sometimes unnatural results are obtained due to insufficient information on face areas. In this paper, we propose an improved SaGAN (MSaGAN) using a guide mask for learning and applying multitask learning approach to improve the limitations of the existing methods. Through extensive experiments, we evaluated the results of the facial attribute editing in therms of the mask loss function and the neural network structure. It has been shown that the proposed method can efficiently produce more natural results compared to the previous methods.-
dc.format.extent10-
dc.language한국어-
dc.language.isoKOR-
dc.publisher한국컴퓨터정보학회-
dc.titleMSaGAN: 얼굴 속성 편집을 위한 유도 마스크와 다중작업 학습 접근을 사용한 개선된 SaGAN-
dc.title.alternativeMSaGAN: Improved SaGAN using Guide Mask and Multitask Learning Approach for Facial Attribute Editing-
dc.typeArticle-
dc.publisher.location대한민국-
dc.identifier.doi10.9708/jksci.2020.25.05.037-
dc.identifier.bibliographicCitation한국컴퓨터정보학회논문지, v.25, no.5, pp 37 - 46-
dc.citation.title한국컴퓨터정보학회논문지-
dc.citation.volume25-
dc.citation.number5-
dc.citation.startPage37-
dc.citation.endPage46-
dc.identifier.kciidART002588825-
dc.description.isOpenAccessN-
dc.description.journalRegisteredClasskci-
dc.subject.keywordAuthor얼굴 속성 편집-
dc.subject.keywordAuthorGAN-
dc.subject.keywordAuthorSaGAN-
dc.subject.keywordAuthor깊은 신경망-
dc.subject.keywordAuthor공간적 주의 기제-
dc.subject.keywordAuthorFacial attribute editing-
dc.subject.keywordAuthorGenerative adversarial networks-
dc.subject.keywordAuthorSaGAN-
dc.subject.keywordAuthorDeep learning-
dc.subject.keywordAuthorSpatial attention mechanism-
dc.identifier.urlhttps://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE09348125-
Files in This Item
Go to Link
Appears in
Collections
COLLEGE OF COMPUTING > SCHOOL OF COMPUTER SCIENCE > 1. Journal Articles

qrcode

Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.

Altmetrics

Total Views & Downloads

BROWSE