스트라드비젼, LG전자와 차세대 디지털콕핏 개발 ‘맞손’

AR-HUD 선행개발 추진, 獨 다임러 완성차에 탑재될 듯

2021-12-21     최태우 기자
스트라드비젼이 개발한 AR-HUD 콘셉트 이미지

객체인식(Object Detection) 소프트웨어(SW) 테크 스타트업 스트라드비젼이 LG전자와 증강현실(AR) 기술이 적용된 차세대 디지털콕핏 개발을 위해 협력한다. 

객체인식(OD) SW ‘SV넷(SVNet)’이 탑재된 LG전자의 첨단운전자지원시스템(ADAS) 양산 계약을 체결한 데 이어 협업 분야를 확대한 것이다. 앞서 양사는 ADAS에 SVNet 통합을 위한 최적화·맞춤형 알고리즘 개발을 진행해왔다. 

21일 관련 업계에 따르면, 양사는 한 단계 높은 주행 안전 표준을 제시하고 최고 수준의 기능안정성, 효율성을 제공하는 차세대 증강현실 솔루션 선행개발을 위해 협력하기로 했다. 해외시장에서의 신사업 기회 발굴도 추진한다.

2014년 포항을 기반으로 창립한 스트라드비젼은 저전력 파워로 카메라 센싱을 빠르고 정확하게 분석-제공하는 SW 플랫폼 ‘SVNet’을 자체 개발, 이를 관련 시장에 공급하고 있다.

최근 자동차 업계는 AR기술이 적용된 AR-헤드업디스플레이(AR-HUD)의 장점에 주목하면서 솔루션 개발도 빠르게 진행되고 있다. 이 기술은 내비게이션, 각종 주행 경고 등을 운전자 시야에 배치해 도로를 주시하면서 주변을 정확하게 인식할 수 있도록 돕는 역할을 한다. 

스트라드비젼이 개발·공급하는 SVNet은 모노 채널 카메라만으로 물체 간 거리를 정밀하게 측정하는 ‘뎁스맵(Depth-map)’, 딥러닝(DL) 기술로 영상을 픽셀단위로 분석하는 ‘시멘틱 세그먼테이션(Semantic Segmentation)’, 차선이탈 경고/유지를 지원하는 ‘차선감지(Lane Detection)’ 기능을 기본 제공한다. 모두 AR-HUD로 확장 가능한 기능이다.

객체인식(OD) 플랫폼인 SVNet은 필요한 메모리 용량이 적고 전력비 성능비가 높은 점이 특징이다. 자체 특허 기술과 DNN(Deep Neural Network) 아키텍처로 다양한 실리콘 위에서 구현 가능한 점도 회사는 강점으로 내세우고 있다.

SVNet은 센서 중 하나인 카메라에 수집된 이미지(영상) 데이터에서의 객체를 인식하는 SW 플랫폼이다. 마이크로컨트롤러(MCU), 전자컨트롤유닛(ECU), 시스템온칩(SoC) 기반의 전장시스템/임베디드시스템 단에 딥러닝(DL)을 구현하는 구조다.

현재 미국 자동차기술자협회(SAE)가 분류한 자율주행 기술 레벨2~4에 해당하는 ADAS 및 자율주행 기반 자동차의 양산모델에 탑재되고 있다.

올해 4월에는 독일 완성차OEM 다임러와 공급계약을 체결하고 차량 라인업에 탑재되는 내비게이션과 차선유지보조시스템(Lane Keeping Assistance Systems)용 AR 솔루션 구현을 위한 툴킷을 공급한 바 있다.

스트라드비젼 김준환 대표는, “LG전자는 스트라드비젼 창업 초기부터 협력해 온 파트너로 LG전자의 DNN 기반 차세대 증강현실 솔루션 선행개발 외에도 최신 ADAS 기술 개발을 위해 오랜 기간 함께 노력해 왔다”며 “안전한 주행 환경 구현을 위한 기술 개발과 신사업 기회 발굴 등 다양한 영역에서 협업을 강화할 것”이라고 밝혔다.

스트라드비젼은 LG전자와의 협업을 통해 확보한 레퍼런스를 앞세워 해외시장 공략에도 집중할 계획이다.

지난해 독일 뮌휀에 사무실을 내고 유럽시장 교두보를 확보한 이래 올해 중국에도 현지법인을 개소, 시장에 집중하고 있다. 내년 초 미국 자동차산업 본산인 미시건주 디트로이트시에 오피스를 개소하고 본격적인 북미시장 공략에 집중할 계획이다.