자율주행차량 개발을 위한 영상 Data 기반 HIL 시뮬레이션

자율주행차량개발을 영상Data기반 HIL시뮬레이션 ADAS 및 자율주행차량을 개발함에 있어 정확성/안전성을 위하여 아래 그림과 함께 다양한 센서가 복합적으로 적용되고 있습니다.

>

특히, 주변 환경을 인지해, Object(, 차량, 물건, 동물, 구조물등)를 인지하는 목적으로 카메라가 큰 역할을 합니다.아래의<그림 2>와 같이, 카메라로 영상을 취득해 ImageProcessingUnit가 Data를 재가공 하면, ADASECU로 해당 Data를 이용해 다른 PT/숏시/BodypartECU와 능동 제어를 실시하는 형태입니다.

>

HIL Simulation을 통해 실제 차량 주행 환경과 유사한 테스트 환경을 구축하여 카메라 based ECU 및 여러 ECU를 통합 테스트 할 수 있습니다.아래와 같은<그림 3>은, 국내에서 도입된 카메라 based ECU테스트 구성으로, 드라이버 시점의 3D-Animation 화면을 카메라가 촬영하는 형태입니다.

>

>

종래는 아래와 같은 2 형태(Option 2, Option 5)로 카메라 based ECU를 테스트했습니다.Image Processing unit 으로 Data 재가공을 끝낸 Data를 ADASECU가 전달하는 형태2. 실제의 Camera로 드라이버 시점의 화면을 촬영해,[카메라_ImageProcessingUnit_ADASECU]를 통합 검증하는 형태

>

본 article에서 소개하는 테스트 비결론은 Option 4에 해당하는 실제 카메라 대신 모니터 출력 영상을 Raw Data로 변환하여 Image processing Unit에 Raw Data를 전달하는 형식입니다.카메라 영상은 Raw Data로 변환하여 Image Processing Unit에 전달하고, 과임머지 센서류는 ASM 차량 모델에서 연산되는 센서 모델의 값을 Rest Bus Simulation(CAN/LIN/Flex Ray 등)하는 구성입니다.이러한 형태로 HIL Simulator를 구축함으로써 카메라에 의존하지 않고 User가 원하는 모든 시과인리오로 가상화된 기타 센서류 및 ECU와 통합 검증할 수 있습니다.

>

소개하는 HIL 구성의 핵심 장비인 Environment Simulation Unit(ESI)의 컨셉은 아래와 같이 카메라 Clock, Ctrl, Pixeldata, Image를 HDMI 영상 포트에서 생성한다는 것이다.

>

>

이에 제한 없이 여러 조건의 시나리오로 테스트를 하는 환경이 구축됩니다.예를 들어 실차로는 테스트하기 어려운 보행자, 특정 동물(사람과 유사한 형태의 カン거루), 자전거도로의 난입 귀취를 다양한 조건으로 할 수 있습니다… 1. 카메라가 완전히 개발되지 않은 귀취로 알고리즘 기능 개발 및 검증(카메라 Raw Data 출력 에뮬레이션) 2. Radar, Lidar, 초sound파 등 카메라와 실차 연계가 필요한 경우 다양한 시나리오 U4 테스트를 수행할 수 없다.오로 인지 및 제어 알고리즘의 통합 검증은 물론 일반적인 ADAS 개발용 HIL Simulation을 수행할 수 있도록 ASM 차량/센서/보행자/Traffic 및 물리적 IO가 기본 구성되어 있습니다.현재까지 개발된 시스템은, 합계 4대의 카메라를 에뮬레이션 할 수 있습니다. 아래 <그림 6>에서 카메라 특성을 반영할 수 있는 sound를 확인하실 수 있습니다.

>

Pincushion distortion, barrel distortion, vignetting, chromatic aberration 등의 카메라 특성을 반영할 수 있습니다. 아래 <그림 7 Q8>에서 조도에 따른 테스트를 실시할 수 있는 환경을 제공하는 것을 알 수 있습니다.

>

>

아래 영상은 Lidar, Radar 및 Camera가 인지하는 Object Detection 관련 ASM & Motion Desk 주행 영상이다.

:dSPACE

한컴MDSDS1팀 이슬과장 / seul@hancommds.com / 031-627-3117