Detailed Information

Cited 0 time in webofscience Cited 0 time in scopus
Metadata Downloads

명령어 튜닝이 대규모 언어 모델의 문장 생성에 미치는 영향력 분석A Study on Instruction Tuning for Large-scale Language Models

Other Titles
A Study on Instruction Tuning for Large-scale Language Models
Authors
나요한채동규
Issue Date
May-2023
Publisher
한국정보처리학회
Citation
한국정보처리학회 ASK 2023(춘계학술발표대회), v.30, no.1, pp.684 - 686
Indexed
OTHER
Journal Title
한국정보처리학회 ASK 2023(춘계학술발표대회)
Volume
30
Number
1
Start Page
684
End Page
686
URI
https://scholarworks.bwise.kr/hanyang/handle/2021.sw.hanyang/190026
ISSN
2005-0011
Abstract
최근 대규모 언어모델 (large language models) 을 활용하여 다양한 자연어처리 문제를 추가학습없이 풀어내기 위한 zero-shot 학습에 대한 연구가 활발히 수행되고 있다. 특히 프롬프트 튜닝(prompt tuning)을 활용하여 적은 학습만으로도 효과적으로 다양한 태스크에 적응하도록 돕는 방법이 최근 대규모 언어모델의 성능을 향상시키고 있다. 본 논문은 명령어 튜닝 (instruction tuning) 이언어모델에 끼치는 영향을 분석하였다. 명령어 튜닝된 모델이 기존 언어모델과 비교하여 변화된 문장 생성 특징, 생성된 문장의 품질 등에 대한 분석을 수행하고 결과를 제시한다.
Files in This Item
Go to Link
Appears in
Collections
서울 공과대학 > 서울 컴퓨터소프트웨어학부 > 1. Journal Articles

qrcode

Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.

Related Researcher

Researcher Chae, Dong Kyu photo

Chae, Dong Kyu
COLLEGE OF ENGINEERING (SCHOOL OF COMPUTER SCIENCE)
Read more

Altmetrics

Total Views & Downloads

BROWSE