전기및전자공학부 황의종 교수님 연구실 허건 박사과정생이 주도하여 추론 공격에 대한 데이터 중심의 방어 기법을 개발했습니다.
머신러닝이 실생활에 적용되기 시작하면서 이로 인해 발생할 수 있는 정보 유출과 같은 사생활 보호에 대한 중요성이 대두되고 있습니다. 그렇기 때문에 이를 방지하고 프라이버시를 강화하는 방법에 대한 연구가 활발히 진행되고 있습니다. 본 연구에서는 웹상에 업로드한 데이터가 불특정 다수의 기계 학습 모델들에 학습되었을 경우 발생할 수 있는 정보 유출 위협을 대처할 수 있는 방법을 제안합니다. 데이터가 이미 웹상으로 퍼지고 모델들이 이미 학습된 경우, 데이터 소유자의 입장에서는 자신의 데이터로 학습한 모든 모델들에 직접적으로 접근하거나 변경, 제거할 수 없습니다. 이 때 가장 최선의 방어 기법은 자신의 데이터 (표적 데이터) 와 비슷한 가짜 데이터들을 생성하여 표적 데이터에 대한 모델들의 성능을 국소적으로 떨어뜨리는 것입니다. 이러한 가짜 데이터를 디스인포메이션 (Disinformation)이라고 명명하였으며, 이 데이터를 생성하는 문제를 표적형 디스인포메이션 생성 (Targeted Disinformaiton Generation) 문제라고 정의했습니다.
본 연구팀은 데이터 프로그래밍을 활용한 확률적 결정 경계 (Probabilistic Decision Boundary)를 만들고, 워터마킹 기법과 GAN을 활용하여 후보들을 생성하여 최종 디스인포메이션을 고르는 기법을 제시했습니다. 제시 기법을 활용하여 점을 생성할 경우, 모델에서 표적 데이터에 대한 성능을 국소적으로 약 30~40퍼센트 정도 떨어뜨릴 뿐만 아니라, 추론 공격에 대한 성공률 또한 크게 낮출 수 있습니다.
연구팀은 해당 기술이 다양한 정보 유출로부터 안전한 기계학습 기술을 만들기 위한 기반이 될 것이라고 설명했습니다. 또한, 본 연구 성과는 인공지능 최고 권위 학회 중 하나인 AAAI 2023 에서 발표되었습니다.