포스팅 목차
자율 주행은 하나의 기술이 아닌 여러 가지 서브 시스템이 상당히 복잡하게 구성된 시스템입니다. 서브시스템은 크게 세 가지로 나뉩니다. 첫째는 센싱, 인지, 의사결정을 처리하는 알고리즘이고 둘째는 OS와 하드웨어 플랫폼으로 구성된 클라이언트 시스템이고 셋째는 HD 지도와 딥 러닝 모델 트레이닝, 시뮬레이션, 데이터 스토리지 등을 제공하는 클라우드 플랫폼입니다.
알고리즘 서브시스템은 센서로 수집한 미가공 원본 데이터로부터 의미 있는 정보를 추출하는 센싱과 차량의 위치에 대한 로컬라이제이션을 통해 주변 환경을 파악하는 인지와 목표 지점까지 안전하고 안정적으로 도달하는 데 필요한 동작을 연결하는 의사결정으로 구성이 됩니다.
센싱
자율 주행차마다 공통적으로 사용하는 센서가 몇 가지 있습니다. 자율 주행차에서 사용하는 센서마다 장단점이 있기 때문에 다양한 센서로부터 수집한 데이터를 잘 조합해야 신뢰성과 안전성을 높일 수 있다. 대표적인 센서는 아래를 참고하시면 되겠습니다.
GPS와 IMU
GPS와 IMU는 자율 주행차의 위치를 파악하는 데 필요합니다. 이 센서는 관성 정보와 지리적 위치에 대한 측정값을 200Hz 이상의 다소 빠른 주기로 알려 줍니다. GPS는 로컬라이제이션 센서 중에서도 상당히 정확한 편에 속하지만 업데이트 주기가 대략 10Hz 수준으로 긴 편입니다. 따라서 최신 위치 정보를 실시간으로 제공하는 데 사용할 수 없습니다. 반면 IMU는 시간의 흐름에 따른 누적 오차로 인해 위치 추정 값의 정확도가 갈수록 떨어집니다. 하지만 IMU 업데이트 주기가 200Hz 이상으로 굉장히 짧아서 실시간 요구사항을 만족시킬 수 있습니다.
라이다
라이다는 매핑, 로컬라이제이션, 장애물 회피 등에 사용됩니다. 레이저 빔을 표면에 쏴서 반사될 때까지 걸리는 시간을 재는 방식으로 거리를 측정합니다. 정확도가 상당히 높기 때문에 HD 맵을 생성 해서 이동 중인 자동차의 위치를 파악해 추정한 뒤, 앞에 나타난 장애물을 감지하는 작업에 주로 활용합니다. 흔히 사용하는 벨로다인 64 빔 레이저 같은 제품은 10Hz 주기로 회전하면서 측정값을 초당 130만 번 읽습니다.
카메라
카메라는 주로 차로 감지, 신호등 감지, 보행자 감지 등과 같은 개체 인지 및 추적 작업에 활용합니다. 현재 개발된 자율 주행차는 안전성을 높이기 위해 1080p 카메라를 8개 이상 장착합니다. 이렇게 장착한 카메라로 차량의 앞과 뒤와 양 옆에 있는 개체를 감지하고 인지하고 추적합니다. 카메라는 대체로 60Hz 주기로 작동하며 차량에 장착된 카메라 전체에서 생성되는 원본 데이터는 초당 1.8GB에 이릅니다.
레이더와 소나
레이더와 소나 시스템은 주로 장애물 회피를 위한 최후의 수단으로 사용합니다. 레이더와 소나로부터 생성된 데이터는 차량 이동 경로 선상에서 가장 가까이 있는 대상까지의 거리뿐만 아니라 속도 정보도 담고 있습니다. 어떤 대상이 가까이 있다고 감지해서 충돌 위험이 있다고 판단이 되면 브레이크를 밟거나 방향을 틀어 장애물을 피합니다. 따라서 레이더와 소나에서 생성된 데이터는 가공할 일이 많지 않으며 메인 연산 파이프라인을 거치지 않고 제어 장치로 곧바로 전달해서 방향을 전환하거나 브레이크를 밟거나 안전벨트를 당기는 깁근한 동작을 수행합니다.