텍스트 기반 스플릿 러닝 환경에서의 데이터 추론 공격Unveiling Security Threats in Split Learning with Text-based Data Inference Attacks
- Other Titles
- Unveiling Security Threats in Split Learning with Text-based Data Inference Attacks
- Authors
- 이세종; 김정인; 김유신; 조성현
- Issue Date
- Jul-2024
- Publisher
- 대한전자공학회
- Keywords
- Split-learning; Privacy-preserving; Data security; Inference attack
- Citation
- 전자공학회논문지, v.61, no.7, pp 15 - 23
- Pages
- 9
- Indexed
- KCI
- Journal Title
- 전자공학회논문지
- Volume
- 61
- Number
- 7
- Start Page
- 15
- End Page
- 23
- URI
- https://scholarworks.bwise.kr/erica/handle/2021.sw.erica/120412
- DOI
- 10.5573/ieie.2024.61.7.15
- ISSN
- 2287-5026
2288-159X
- Abstract
- 인공지능 기술이 발전함에 따라 훈련을 위한 광범위한 데이터와 컴퓨팅 리소스에 대한 수요가 크게 증가했다. AI 기술의 발전에도 불구하고 제한된 컴퓨팅 리소스와 데이터 소유권과 관련된 개인 정보 보호 문제로 인해 기술 개발의 어려움을 겪고 있다. 이를 해결하기 위해 분산 학습 기술이 등장했으며, 특히 스플릿 러닝은 학습에 필요한 raw 데이터를 공유하지 않고도 협력적으로 모델을 학습할 수 있는 기술로 많은 주목을 받고 있다. 그러나 최근 연구를 통해 smashed 데이터를 이용한 추론 공격을 통해 클라이언트의 민감한 정보를 비밀리에 탈취 할 수 있다는 스플릿 러닝의 보안 취약점이 밝혀졌다. 본 논문에서는 스플릿 러닝의 보안 취약점의 위험성을 논의하고, 이를 입증하기 위해 텍스트 기반 추론 공격 프레임워크를 제안한다. 제안하는 공격 기법은 공격자인 서버가 대조용 smashed 데이터 세트와 클라이언트 측 smashed 간 벡터 거리 비교를 통해 클라이언트의 로컬 데이터를 추론한다. 본 논문에서는 제안하는 추론 공격 기법을 통해 텍스트 데이터를 포함한 스플릿 러닝 모델의 취약점을 입증하고, 데이터 프라이버시 보호를 강화하기 위한 데이터 프라이버시 보호 메커니즘에 대한 연구의 필요성을 제시한다.
As artificial intelligence technology advances, the demand for extensive data and computing resources for training has significantly increased. Despite these advancements, technology development faces challenges due to limited computing resources and privacy concerns related to data ownership. To address these issues, distributed learning technologies have emerged, with split learning gaining significant attention as a method that allows collaborative model training without sharing raw data. However, recent studies have revealed security vulnerabilities in split learning, where inference attacks using smashed data can secretly extract sensitive information from clients. This paper discusses the risks associated with the security vulnerabilities of split learning and proposes a text-based inference attack framework to demonstrate these vulnerabilities. The proposed attack technique involves the server, acting as an attacker, performing vector matching between the client-side smashed data and a reference smashed dataset to infer the client’s local data. In this paper demonstrates the vulnerabilities in split learning models, including those handling text data, and underscores the need for enhanced data privacy mechanisms to strengthen privacy protection in distributed learning environments.
- Files in This Item
-
Go to Link
- Appears in
Collections - COLLEGE OF COMPUTING > ERICA 컴퓨터학부 > 1. Journal Articles

Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.