Detailed Information

Cited 0 time in webofscience Cited 0 time in scopus
Metadata Downloads

프루닝된 컨볼루션 신경망의 고효율 연산 방법

Full metadata record
DC Field Value Language
dc.contributor.author이원혁-
dc.contributor.author박상수-
dc.contributor.author정기석-
dc.date.accessioned2021-08-02T09:53:12Z-
dc.date.available2021-08-02T09:53:12Z-
dc.date.created2021-05-14-
dc.date.issued2020-02-
dc.identifier.urihttps://scholarworks.bwise.kr/hanyang/handle/2021.sw.hanyang/10715-
dc.description.abstract최근, 컨볼루션 신경망이 깊어짐에 따라 연산량과 파라미터의 양이 커지는 것이 큰 문제로 대두되고 있다. 특히, 메모리 용량과 연산 능력이 제한된 임베디드 환경에서는 기존의 딥러닝 모델을 경량화하는 것이 필수적이며, 이를 위해서 프루닝 기법이 널리 사용되고 있다. 프루닝을 통해 간략화된 컨볼루션 신경망은 0 값이 많은 sparse 한 구조를 갖지만, 기존의 신경망 연산 방법은 피연산자가 0 값인 경우에도 그대로 연산을 하기 때문에 불필요한 연산이 많이 수행된다. 본 논문에서는 프루닝된 컨볼루션 신경망에서의 효율적인 연산 방법으로 외적을 이용한 Sparse Matrix-Matrix Multiplication (SpMM)을 제안한다. 실험을 통해, 임베디드 환경에서 기존 연산 방법 대비 속도가 최대 7.1 배 개선된 것을 확인하였다.-
dc.language한국어-
dc.language.isoko-
dc.publisher한국통신학회-
dc.title프루닝된 컨볼루션 신경망의 고효율 연산 방법-
dc.title.alternativeHighly-efficient Computation Method for Pruned CNN-
dc.typeArticle-
dc.contributor.affiliatedAuthor정기석-
dc.identifier.bibliographicCitation2020년도 한국통신학회 동계종합학술발표회, pp.1036 - 1037-
dc.relation.isPartOf2020년도 한국통신학회 동계종합학술발표회-
dc.citation.title2020년도 한국통신학회 동계종합학술발표회-
dc.citation.startPage1036-
dc.citation.endPage1037-
dc.type.rimsART-
dc.type.docTypeProceeding-
dc.description.journalClass3-
dc.description.isOpenAccessN-
dc.description.journalRegisteredClassother-
dc.identifier.urlhttps://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE09346672-
Files in This Item
Go to Link
Appears in
Collections
서울 공과대학 > 서울 융합전자공학부 > 1. Journal Articles

qrcode

Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.

Related Researcher

Researcher Chung, Ki Seok photo

Chung, Ki Seok
COLLEGE OF ENGINEERING (SCHOOL OF ELECTRONIC ENGINEERING)
Read more

Altmetrics

Total Views & Downloads

BROWSE