Detailed Information

Cited 0 time in webofscience Cited 0 time in scopus
Metadata Downloads

명령어 튜닝이 대규모 언어 모델의 문장 생성에 미치는 영향력 분석

Full metadata record
DC Field Value Language
dc.contributor.author나요한-
dc.contributor.author채동규-
dc.date.accessioned2023-09-04T07:58:05Z-
dc.date.available2023-09-04T07:58:05Z-
dc.date.created2023-07-20-
dc.date.issued2023-05-
dc.identifier.issn2005-0011-
dc.identifier.urihttps://scholarworks.bwise.kr/hanyang/handle/2021.sw.hanyang/190026-
dc.description.abstract최근 대규모 언어모델 (large language models) 을 활용하여 다양한 자연어처리 문제를 추가학습없이 풀어내기 위한 zero-shot 학습에 대한 연구가 활발히 수행되고 있다. 특히 프롬프트 튜닝(prompt tuning)을 활용하여 적은 학습만으로도 효과적으로 다양한 태스크에 적응하도록 돕는 방법이 최근 대규모 언어모델의 성능을 향상시키고 있다. 본 논문은 명령어 튜닝 (instruction tuning) 이언어모델에 끼치는 영향을 분석하였다. 명령어 튜닝된 모델이 기존 언어모델과 비교하여 변화된 문장 생성 특징, 생성된 문장의 품질 등에 대한 분석을 수행하고 결과를 제시한다.-
dc.language한국어-
dc.language.isoko-
dc.publisher한국정보처리학회-
dc.title명령어 튜닝이 대규모 언어 모델의 문장 생성에 미치는 영향력 분석-
dc.title.alternativeA Study on Instruction Tuning for Large-scale Language Models-
dc.typeArticle-
dc.contributor.affiliatedAuthor채동규-
dc.identifier.bibliographicCitation한국정보처리학회 ASK 2023(춘계학술발표대회), v.30, no.1, pp.684 - 686-
dc.relation.isPartOf한국정보처리학회 ASK 2023(춘계학술발표대회)-
dc.citation.title한국정보처리학회 ASK 2023(춘계학술발표대회)-
dc.citation.volume30-
dc.citation.number1-
dc.citation.startPage684-
dc.citation.endPage686-
dc.type.rimsART-
dc.type.docTypeProceeding-
dc.description.journalClass2-
dc.description.isOpenAccessN-
dc.description.journalRegisteredClassother-
dc.identifier.urlhttps://kiss.kstudy.com/Detail/Ar?key=4028498-
Files in This Item
Go to Link
Appears in
Collections
서울 공과대학 > 서울 컴퓨터소프트웨어학부 > 1. Journal Articles

qrcode

Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.

Related Researcher

Researcher Chae, Dong Kyu photo

Chae, Dong Kyu
COLLEGE OF ENGINEERING (SCHOOL OF COMPUTER SCIENCE)
Read more

Altmetrics

Total Views & Downloads

BROWSE