OAK

Improved Semantic Segmentation Network using Normal Vector Guidance for LiDAR Point Cloud

Metadata Downloads
Author(s)
Minseong Kim
Type
Thesis
Degree
Master
Department
대학원 기계공학부
Advisor
Ko, Kwang Hee
Abstract
일반적으로 LiDAR 점 군은 밀도가 낮고 약 10만 개 이상의 점을 포함한 거대한 점 군이다. 이러한 점 군에 의미론적 분할을 적용하기 위해선 주로 인공 신경망을 활용한 기법들이 활용된다. 본 논문은 법선 벡터를 활용하여 무작위로 분포된 LiDAR 점 군을 의미론적으로 분할하는 새로운 신경망 구조를 제시한다. RandLA의 구조를 기반으로하여, 제시된 신경망은 법선 벡터를 사용한 새로운 지역적 특징 추출 모듈을 포함한다. 이 때 법선 벡터 추정 과정에서의 오차를 최소화하기 위해 반사강도 기반의 법선 벡터 추정 방식을 사용한다. SemanticKITTI 데이터 셋 상에서의 실험적인 분석에서 본 논문의 방식은 57.9% mIoU를 기록하였으며, 크기가 작고 동적인 사물, 차와 자전거 등의 분류에서 특히 발전된 결과를 획득하였다. 위 결과를 통해 기존의 여러 방식과 비교해 향상된 성능을 확인하였다.|Usually, LiDAR point clouds are sparse and have huge size with hundreds of thousands of points, thus for segment those various techniques mainly using deep learning networks are being used. This paper proposes a new method using normal vectors in semantic segmentation for unordered point cloud obtained with LiDAR sensors. Based on the RandLA-Net architecture, our network proposes improved local feature aggregation (LFA) module using surface normal feature and the most efficient binding structure between position and normal feature. And also, using intensity assistance, minimize errors in normal estimation process. Through the experimental analysis of SemanticKITTI online competition, our new structure has shown better performance 57.9% mIoU recording especially high scores in dynamic object recognition, such as people, motorcycle, bicycle and other vehicles, than before. These results prove that the method using the normal vector we presented can extracts features more efficiently and enable more accurate classification and recognition.
URI
https://scholar.gist.ac.kr/handle/local/19390
Fulltext
http://gist.dcollection.net/common/orgView/200000884876
Alternative Author(s)
김민성
Appears in Collections:
Department of Mechanical and Robotics Engineering > 3. Theses(Master)
공개 및 라이선스
  • 공개 구분공개
파일 목록
  • 관련 파일이 존재하지 않습니다.

Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.