OAK

Generative Models for Anomaly Detection and Its Applications

Metadata Downloads
Author(s)
Jongmin Yu
Type
Thesis
Degree
Doctor
Department
대학원 전기전자컴퓨터공학부
Advisor
Jeon, Moongu
Abstract
이상 탐지는 모델이 훈련 된 관측치와 다방면에서 다른 관측치를 구별하는 프로세스이다. 이상 탐지는 테스트 데이터에 훈련 기간중 제시되지 않으며 정의될 수 없는 관측치를 처리해야 한다. 다시 말하면, 훈련 단계에서 이상 클래스의 데이터를 명시적으로 사용하는것은 불가능 하기 떄문에 이를 기존의 종단 간 모델을 사용하여 해결하는것은 매우 어렵다. 그러나, 최근 각광 받고 있는 데이터 주도 모델들에서, 상기 문제는 필연적으로 발생할 수 밖에 없는 문제이다. 결론적으로, 이상 탐지는 비감독 혹은 반감독 기반의 우수한 분류 또는 식별 시스템을 개발하기 위해 반드시 극복해야 할 문제이다. 이 논문에서 우리는 생성 모델을 기반으로 감독 및 반 감독 방식으로 이상 탐지 문제를 해결하기 위한 몇 가지 방법을 제안한다. 제안 된 방법들은 이상 및 이상치 탐지 작업의 다양한 관련 응용 프로그램에 적용된다. 결과는 기준선과 최첨단 방법에 비해 제안 된 방법의 우수성을 보여준다.|Anomaly detection is a process for distinguishing the observations that differ in some respect from the observations that the model is trained on. Anomaly detection is one of the fundamental requirements of a good classification or identification system since sometimes the test data contains observations that were not known at the training time. In other words, the anomaly class is often is not presented during the training phase or not well defined. In light of the above, one-class classifiers and generative methods can efficiently model such problems. However, due to the unavailability of data from the abnormal class, training an end-to-end model is a challenging task itself. Therefore, detecting the anomaly classes in unsupervised and semi-supervised settings is a crucial step in such tasks. In this thesis, we propose several methods to model the anomaly detection problem in unsupervised and semi-supervised fashion. The proposed frameworks applied to different related applications of novelty and outlier detection tasks. The results show the superior of our proposed methods in compare to the baselines and existing state-of-the-art methods.
URI
https://scholar.gist.ac.kr/handle/local/33036
Fulltext
http://gist.dcollection.net/common/orgView/200000907874
공개 및 라이선스
  • 공개 구분공개
파일 목록
  • 관련 파일이 존재하지 않습니다.

Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.