Detailed Information

Cited 0 time in webofscience Cited 0 time in scopus
Metadata Downloads

불균형한 DNN 모델의 효율적인 분산 학습을 위한 파라미터 샤딩 기술 성능 평가Performance Evaluation: Parameter Sharding approaches for DNN Models with a Very Large Layer

Other Titles
Performance Evaluation: Parameter Sharding approaches for DNN Models with a Very Large Layer
Authors
최기봉고윤용김상욱
Issue Date
Nov-2020
Publisher
한국정보처리학회
Citation
한국정보처리학회 학술대회논문집, v.27, no.2, pp.881 - 882
Indexed
OTHER
Journal Title
한국정보처리학회 학술대회논문집
Volume
27
Number
2
Start Page
881
End Page
882
URI
https://scholarworks.bwise.kr/hanyang/handle/2021.sw.hanyang/144341
Abstract
최근 딥 러닝 (deep learning) 기술의 큰 발전으로 기존 기계 학습 분야의 기술들이 성공적으로 해결하지 못하던 많은 문제들을 해결할 수 있게 되었다. 이러한 딥 러닝의 학습 과정은 매우 많은 연산을 요구하기에 다수의 노드들로 모델을 학습하는 분산 학습 (distributed training) 기술이 연구되었다. 대표적인 분산 학습 기법으로 파라미터 서버 기반의 분산 학습 기법들이 있으며, 이 기법들은 파라미터 서버 노드가 학습의 병목이 될 수 있다는 한계를 갖는다. 본 논문에서는 이러한 파라미터서버 병목 문제를 해결하는 파라미터 샤딩 기법에 대해 소개하고, 각 기법 별 학습 성능을 비교하고 그 결과를 분석하였다.
Files in This Item
Go to Link
Appears in
Collections
서울 공과대학 > 서울 컴퓨터소프트웨어학부 > 1. Journal Articles

qrcode

Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.

Related Researcher

Researcher Kim, Sang-Wook photo

Kim, Sang-Wook
COLLEGE OF ENGINEERING (SCHOOL OF COMPUTER SCIENCE)
Read more

Altmetrics

Total Views & Downloads

BROWSE