영상 중요도 정보에 기반한 스타일 전이 기법
DC Field | Value | Language |
---|---|---|
dc.contributor.author | 이호창 | - |
dc.contributor.author | 윤경현 | - |
dc.date.available | 2019-08-23T02:58:53Z | - |
dc.date.issued | 2013 | - |
dc.identifier.issn | 1229-683X | - |
dc.identifier.uri | https://scholarworks.bwise.kr/cau/handle/2019.sw.cau/35746 | - |
dc.description.abstract | 스타일 전이 기법은 참조 영상에 나타나는 질감/색상과 같은 스타일을 결과 영상에 반영하는 기법이다. 기존의 스타일 전이 기법 연구들은 색상이나 질감 중 하나의 특징에 초점을 맞추어 진행되었으며, 두 가지 특징을 동시에 반영한 연구는 활발히 연구되지 않았다. 또한 스타일 전이를 위해 후보 픽셀 집합을 구할 때 단순히 임의의 픽셀들로 구성하기 때문에 때때로 안 좋은 결과 영상을 생성하였다. 본 연구에서는 참조 회화 작품의 색상과 질감 정보를 동시에 반영하는 알고리즘을 제안한다. 이때 참조 영상의 스타일을 효과적으로 반영하기 위해 영상의 중요도 정보를 이용한다. 우리는 참조 영상과 대상영상의 중요도를 고려하여, 중요도가 유사한 영역간에 스타일이 반영될 수 있도록 하였다. 우리의 알고리즘은 색상과 질감을 동시에 반영하기 때문에 기존 연구에 비해 참조 영상의 느낌을 잘 전이할 수 있었다. 또한 임의의 픽셀을 기반으로 후보 집합을 구성하는 것이 아닌, 중요도 정보를 추가로 반영하기 때문에, 영역별로 보다 명확하게 특징을 반영할 수 있었다. | - |
dc.format.extent | 6 | - |
dc.publisher | 한국정보과학회 | - |
dc.title | 영상 중요도 정보에 기반한 스타일 전이 기법 | - |
dc.title.alternative | Style Transfer Technique based on Image Saliency | - |
dc.type | Article | - |
dc.identifier.bibliographicCitation | 정보과학회논문지 : 시스템 및 이론, v.40, no.2, pp 111 - 116 | - |
dc.identifier.kciid | ART001760690 | - |
dc.description.isOpenAccess | N | - |
dc.citation.endPage | 116 | - |
dc.citation.number | 2 | - |
dc.citation.startPage | 111 | - |
dc.citation.title | 정보과학회논문지 : 시스템 및 이론 | - |
dc.citation.volume | 40 | - |
dc.publisher.location | 대한민국 | - |
dc.subject.keywordAuthor | 스타일 전이 기법 | - |
dc.subject.keywordAuthor | 영상 중요도 | - |
dc.subject.keywordAuthor | 픽셀 기반 렌더링 | - |
dc.subject.keywordAuthor | style transfer | - |
dc.subject.keywordAuthor | image saliency | - |
dc.subject.keywordAuthor | pixel-based rendering | - |
dc.description.journalRegisteredClass | kci | - |
Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.
84, Heukseok-ro, Dongjak-gu, Seoul, Republic of Korea (06974)02-820-6194
COPYRIGHT 2019 Chung-Ang University All Rights Reserved.
Certain data included herein are derived from the © Web of Science of Clarivate Analytics. All rights reserved.
You may not copy or re-distribute this material in whole or in part without the prior written consent of Clarivate Analytics.