Detailed Information

Cited 0 time in webofscience Cited 0 time in scopus
Metadata Downloads

DeNERT: Named Entity Recognition Model using DQN and BERTDeNERT: Named Entity Recognition Model using DQN and BERT

Other Titles
DeNERT: Named Entity Recognition Model using DQN and BERT
Authors
양성민정옥란
Issue Date
Apr-2020
Publisher
한국컴퓨터정보학회
Keywords
Natural language processing; Named entity recognition; Reinforcement learning; BERT; DQN; Language model; 자연어처리; 개체명 인식; 강화학습; BRET; DQN; 언어모델
Citation
한국컴퓨터정보학회논문지, v.25, no.4, pp.29 - 35
Journal Title
한국컴퓨터정보학회논문지
Volume
25
Number
4
Start Page
29
End Page
35
URI
https://scholarworks.bwise.kr/gachon/handle/2020.sw.gachon/41922
DOI
10.9708/jksci.2020.25.04.029
ISSN
1598-849X
Abstract
본 논문에서는 새로운 구조의 개체명 인식 DeNERT 모델을 제안한다. 최근 자연어처리 분야는 방대한양의 말뭉치로 사전 학습된 언어 표현 모델을 활용하는 연구가 활발하다. 특히 자연어처리 분야 중 하나인개체명인식은 대부분 지도학습 방식을 사용하는데, 충분히 많은 양의 학습 데이터 세트와 학습 연산량이필요하다는 단점이 있다. 강화학습은 초기 데이터 없이 시행착오 경험을 통해 학습하는 방식으로 다른 기계학습방법론보다 조금 더 사람이 학습하는 과정에 가까운 알고리즘으로 아직 자연어처리 분야에는 많이 적용되지않은 분야이다. 아타리 게임이나 알파고 등 시뮬레이션 가능한 게임 환경에서 많이 사용된다. BERT는 대량의말뭉치와 연산량으로 학습된 구글에서 개발한 범용 언어 모델이다. 최근 자연어 처리 연구 분야에서 높은성능을 보이고 있는 언어 모델이며 많은 자연어처리 하위분야에서도 높은 정확도를 나타낸다. 본 논문에서는이러한 DQN, BERT 두가지 딥러닝 모델을 이용한 새로운 구조의 개체명 인식 DeNERT 모델을 제안한다. 제안하는 모델은 범용 언어 모델의 장점인 언어 표현력을 기반으로 강화학습 모델의 학습 환경을 만드는방법으로 학습된다. 이러한 방식으로 학습된 DeNERT 모델은 적은 양의 학습 데이터세트로 더욱 빠른 추론시간과높은 성능을 갖는 모델이다. 마지막으로 제안하는 모델의 개체명 인식 성능평가를 위해 실험을 통해서 검증한다.
Files in This Item
There are no files associated with this item.
Appears in
Collections
IT융합대학 > 소프트웨어학과 > 1. Journal Articles

qrcode

Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.

Related Researcher

Researcher Jeong, Ok Ran photo

Jeong, Ok Ran
College of IT Convergence (Department of Software)
Read more

Altmetrics

Total Views & Downloads

BROWSE