ADAS(Advanced Driver Assistance System, 선진 운전 지원 시스템)은 운전 중에 발생하는 상황을 차량 스스로 인지하고 판단하고 기계 장치를 제어하는 기술, 자동 운전을 실현하는데 필요한 최첨단 기술이다.ADAS플랫폼은 “눈”의 역할을 하는 센서와 “두뇌”역할을 하는 프로세서로 구성된다.자동 운전 시스템의 제어 흐름은 1)감지, 2)분석, 인지, 판단, 3)작동에서 크게 3단계로 구성된다.이 가운데 감지 단계에서 자동차가 자율적으로 주행하기 위한 조건으로 주위에 있는 모든 물체를 인식할 수 있는 센서가 필요하다.차량 주위를 에워싸는 도로상의 복잡한 환경을 감지하기 위한 센서로, 1)초음파 센서, 2)카메라, 3)레이더(Radar, radio detection and ranging), 4)라이더(Lidar, light detection and ranging)이 있다.500원짜리 동전 정도의 초음파 센서는 이미 대부분의 차량에 탑재된 기본 옵션으로 자동 운전 차 수준 0에 해당하는 주차 보조 시스템을 위한 센서로 사용된다.대중화된 초음파 센서를 제외한 카메라, 레이더, 라이더가 핵심 센서로, 보통 이 센서가 함께 작동하면 자동 운전에 필요한 자동차 주변 환경의 모든 데이터를 기록할 수 있다.자동 운전 기술의 고도화에 의한 ADAS의 성장과 함께 카메라, 레이더, 레이더 등의 센서도 지속적 성장이 예상된다.그림 1)자동 운전 시스템의 제어 순서도 2)자동 운전 차 센서 작동 방식자료:경북 테크노 파크, 한국 수출입 은행 해외 경제 연구소 자료:만도 1. 카메라(Camera)카메라는 물체에서 방출하는 빛을 감지하는 센서에서 렌즈를 통해서 들어온 빛을 디지털 신호로 변환하고 물체를 식별한다.카메라는 가장 싸고 구하기 쉽고 높은 해상도로 수백 만 픽셀에 달하는 대량의 데이터를 사용하기 때문에 피사체의 디테일을 파악하는 데 쉽다.또 레이더 및 레이더와 달리 빛을 인식할 수 있다는 장점이 있고 신호의 색의 구별이 가능하다 바깥 상황을 판단하는 데 가장 좋다.그러나 야간이나 악천후 때 가시성이 낮아 2D이미지이므로 먼 거리 정보를 인식하는데 한계가 있다.이런 단점을 보완하기 위해서 적외선 센서나 3D ToF(Time of Flight비행 시간 거리 측정)및 AI딥-러닝 등을 활용하는 경향이다.차량용 카메라의 원리도 사실상, 스마트 폰의 디지털 카메라와 같다.상세를 보면, 카메라 모듈은 크게 1)렌즈, 2)이미지 센서, 3)ISP(Image Signal Processor)센서로 구성된다.이미지 센서는 카메라 렌즈를 통해서 들어온 피사체 정보를 감지하고 빛 에너지를 디지털 신호로 변환하는 센서이며 ISP는 이미지 센서로 변환된 데이터를 영상 신호로 전환하고 화질 개선, 영상 보정 등의 기능을 담당한다.현재 이미지 센서 시장은 300만 화소 중심으로 형성되어 있으며, 200만 화소 이하의 제품은 최대 감지 거리가 120m에서 차량이 고속으로 주행할 때 멀리 있는 물체를 정확히 식별하기 어렵다.최근 공개된 온 세미 컨덕터의 이미지 센서는 800만 화소로 185M외의 것을 인지할 수 있는 수준이며, 중장기적으로 레벨 4이상의 자동 운전 환경에서 더 선명한 정보 수집과 넓은 화각 때문에 점차 고해상도 중심으로 바뀔 것으로 예상된다.그림 3)카메라 구조 및 원리도 4) 온 매미의 800만 화소 이미지 센서자료: 경북테크노파크, 한국수출입은행 해외경제연구소 자료: 만도1. 카메라(Camera) 카메라는 물체가 방출하는 빛을 감지하는 센서로 렌즈를 통해 들어온 빛을 디지털 신호로 변환해 물체를 식별한다. 카메라는 가장 싸고 구하기 쉬우며 높은 해상도로 수백만 픽셀에 달하는 대량의 데이터를 사용하기 때문에 피사체의 디테일을 파악하는 데 용이하다. 또 레이더나 레이더와 달리 색을 인식할 수 있다는 장점이 있어 신호의 색 구별이 가능해 바깥 상황을 판단하는 데 가장 좋다. 그러나 야간이나 악천후 때 가시성이 낮고 2D 이미지여서 원거리 정보를 인식하는 데 한계가 있다. 이러한 단점을 보완하기 위해 적외선 센서나 3D ToF(Time of Flight, 비행시간 거리 측정) 및 AI 딥러닝 등을 활용하는 추세다. 차량용 카메라의 원리도 사실상 스마트폰의 디지털 카메라와 같다. 상세를 보면 카메라 모듈은 크게 1) 렌즈, 2) 이미지 센서, 3) ISP(Image Signal Processor) 센서로 구성된다. 이미지센서는 카메라 렌즈를 통해 들어온 피사체 정보를 감지해 광에너지를 디지털 신호로 변환하는 센서로, ISP는 이미지센서에서 변환된 데이터를 영상 신호로 전환해 화질 개선, 영상 보정 등의 기능을 담당한다. 현재 이미지센서 시장은 300만 화소 위주로 형성돼 있고 200만 화소 이하 제품은 최대 감지거리가 120m로 차량이 고속으로 주행할 때 멀리 있는 물체를 정확히 식별하기 어렵다. 최근 공개된 온세미컨덕터 이미지 센서는 800만 화소로 185M 밖의 사물을 인지할 수 있는 수준이며, 중장기적으로 레벨4 이상의 자율주행 환경에서 보다 선명한 정보 수집과 넓은 화각을 위해 점차 고해상도 중심으로 바뀔 것으로 예상된다.그림 3) 카메라 구조 및 원리 그림 4) 온세미의 800만 화소 이미지 센서자료:교보 증권 리서치 센터 자료:메리츠 증권 리서치 센터 카메라 모듈을 생산하는 국내 기업에는 현대 모비스, LG이노텍, 삼성 전기, MC넥스, 세코닛크스, 후원자 등이 있다.LG이노텍, 삼성 전기의 경우, 테슬라에 카메라 모듈을 공급했으며 MC넥스는 현대·기아 자동차의 1차 협력 업체이다.어느 정도 경쟁 우위가 있는 탐사 카메라 모듈 장비의 글로벌 기업으로 미국 AMI, 홍콩 ASM유럽 시험 옵틱스와 국내에는 프런티어가 있다.전체 이미지 센서 시장 점유율은 소니(2022년 기준 47.9%)이 압도적이었고 그 후에 삼성 전자(18.1%)이 뒤따르지.그러나 저가형과 중저가형으로 나뉘어 차량용 이미지 센서 시장에서는 2019년 기준으로 각각 중국의 웨이 아르 자회사 옴니 비전(매출액 기준으로 29%)과 미국의 온 세미 컨덕터(매출액 기준으로 62%)가 시장을 점유하고 있다.삼성 전자와 소니 함께 2016년 이후, 기존의 모바일 시장 범위를 넓히고 삼성 전자는 2021년에 차량용 이미지 센서인 “하전 셀 오토 4AC”를 선 보였다.ISP관련 기업으로서는 국내 넥스트 칩과 미국 지오(GEOSemiconductor)이 유일하다.넥스트 칩의 경우 24년 자체 개발한 원천 기술을 확보하고 동영상 기반의 실시간 보정 기술로 안정적인 화질을 제공하고 있다.그림 7)차량용 카메라 주요 기업의 상황도8)글로벌 차량용 카메라 Tier 1시장 점유율자료:넥스트 칩 자료:유안 다 증권 리서치 센터·업계 자료 2. 레이더(Radar, Radio detection and ranging)레이더는 적외선보다는 긴 파장을 가진 전자파를 이용하고 움직이는 물체의 정보를 알아내는 장치이다.카메라가 스마트 폰에 사용되는 비율이 높게, 레이더도 차량용보다 주로 방위 산업 보안, 항공 분야에 사용되고 이미 시장이 거대하게 형성되고 있다.레이더는 크게 1)안테나와 2)전파를 송수신하는 송수신단, 3)송수신한 신호와 디지털 신호 사이를 변환하는 신호 처리단으로 구성된다.전파를 발사하고 반사하고 돌아오는 신호를 기반으로 주변 사물과의 거리, 속도, 방향 등을 추출한다.차량용 레이더 센서는 크게 칩과 모듈에 나뉘어 안테나와 송수신기를 포함한 레이더 칩은 센싱 기능을 수행하며 레이더 모듈은 팁으로 감지한 신호를 소프트웨어 처리를 통해서 레이더 파라미터를 파악한다.레이더의 장점은 1)카메라와 달리 날씨 영향이 적고 2)장거리 물체와의 거리가 측정 가능하며 3)플라스틱 등 일부의 사물은 투과가 가능하거나 숨어 있는 물체도 인지가 가능하다.반면 레이더의 단점은 1)광학 시스템보다 낮은 해상도로 물체의 형태 및 종류를 판독하기 어렵고 2)최대 측정 거리와 범위가 반비례해서 감소한다는 것이다.이는 수신 안테나 수의 한계에서 각도 탐지 성능이 떨어지고 모든 객체가 하나의 포인트로서 인지되기 때문이다.그러므로 물체와의 거리 및 유무는 모르지만 장애물이 정확히 무엇인지 알아내기 어렵게 카메라와 함께 사용하는 경우가 많다.단점을 보완하기 위해서 크기와 무게를 줄이고 측정 뿔과 거리를 높이고 성능을 향상시킨 제품이 출시되고 있다.그림 9)레이더의 원리도 10)차량용 레이더의 구성자료:IITP자동 운전 자동차를 위한 차량용 영상 레이더 기술은 차량용 레이더는 주파수에 응하고 단거리, 중거리 장거리 감지가 가능하고 ADAS분야를 중심으로 보행자 탐지, 전방 충돌 방지 지원, 긴급 제동, 측면 접근 차량 경고, 스마트 크루즈 컨트롤 등 여러가지 목적으로 사용되고 있다.자동 운전 수준 1에서 2정도의 차량은 ACC(Adaptive Cruise Control, 적응형 순항 제어)기능을 수행하지만 여기에서 가장 많이 쓰이는 센서가 레이더이다.단거리 레이더(24GHz, 70~80m인식)은 인사 캐빈 용도로 실내 탑승자를 감지하고 중거리 레이더(160m전후 인식)은 차량 앞쪽과 뒤쪽을 감지하고 장거리 레이더(77GHz, 200m이상 인식)은 전방 충돌을 방지하는 데 주로 활용된다.레이더 관련 대표적인 해외 기업으로는 Continental, BOSCH(독일), Veoneer(스웨덴), Denso, Fujitsu(일본), Valeo(프랑스)등에서 글로벌 자동차 부품 업체가 점유율의 대부분을 차지했다.Continental은 2021년 상하이 모터쇼에서 최대 250m까지 탐지할 수 있는 제6세대 장거리 레이더와 360번 서라운드 레이더를 선 보이며 BOSCH도 감지 거리를 160m에서 200m에 수평 탐지 각도도 45도에서 60번으로 확대하는 중 장거리 레이더 제품을 출시했다.주요 국내 기업에는 현대 모비스, 만도가 있는 스타트 업으로 스마트 레이더와 비트 탐사, 42도트 등이 있다.현대 모비스는 2018년 국내 업체들은 처음 뒤쪽는 레이더를 개발하고 만도는 전방 충돌 방지 및 ACC용 장거리 레이더를 공급하고 있다.그림 11)글로벌 차량용 레이더 시장 점유율도 12)차량용 레이더의 밸류 체인자료:키움 증권 리서치, 산업 자료/주:2019년 기준 자료:신한 금융 투자들 최근 물체와의 거리와 유무만 나타났던 아날로그 레이더 시스템 대비 해상도와 물체 감지 성능이 대폭 향상된 4D이미징 레이더가 대두되고 있다.기존의 레이더는 도로상에서 움직이는, 즉 동적인 물체를 감지하기까지는 어느 정도 효과적이지만 정지하고 있는 물체를 인식하는 데에는 어려움이 있었다.또 타깃의 높이를 측정할 수 없는 한계가 있었다.4D이미징 레이더는 기존 레이더에 비해서 다수의 송수신 안테나와 향상된 신호 인식 체계를 통해서 더 멀리 있는 사물의 정보를 보다 세세하게 정교하게 인식한다.거리, 높이, 깊이, 속도라는 4가지 차원에서 감지하니 전방 물체의 높낮이와 차량의 종류, 크기까지 식별한다.비트 탐사, 스마트 레이더 시스템 등 먼저 언급한 국내 스타트 업이 4D이미징 레이더를 개발하고 있다.IPO을 준비하고 있는 스마트 레이더는 24년 상용화를 목표로 국내 자동차 부품 업체인 만도를 비롯한 미국의 완성 차 OEM방위 산업 및 통신 회사, 이스라엘의 카메라, 중장비 트럭 업체 등과 협력하고 있다.그림 13)기존 레이더와 4D이미징 레이더의 비교도 14)4D이미징 레이더 시장 규모 전망자료: 키움증권 리서치, 산업자료/주: 2019년 기준 자료: 신한금융투자, 각사 최근 물체와의 거리와 유무만 알 수 있었던 아날로그 레이더 시스템 대비 해상도와 물체 감지 성능이 대폭 향상된 4D 이미징 레이더가 대두되고 있다. 기존 레이더는 도로 위에서 움직이는, 즉 동적인 물체를 감지하는 데는 어느 정도 효과적이지만 정지해 있는 물체를 인식하는 데는 어려움이 있었다. 또한 타겟의 높이를 측정할 수 없는 한계가 있었다. 4D 이미징 레이더는 기존 레이더에 비해 다수의 송수신 안테나와 향상된 신호인식 체계를 통해 더 멀리 있는 사물의 정보를 더 세밀하고 정교하게 인식한다. 거리, 높이, 깊이, 속도라는 네 가지 차원에서 감지하기 때문에 전방 물체의 높낮이와 차량의 종류, 크기까지 식별할 수 있다. 비트센싱, 스마트 레이더 시스템 등 앞서 언급한 국내 스타트업들이 4D 이미징 레이더를 개발하고 있다. IPO를 준비 중인 스마트 레이더 시스템은 2024년 상용화를 목표로 국내 자동차 부품업체 만도를 비롯해 미국 완성차 OEM, 방산 및 통신사, 이스라엘 카메라, 중장비 트럭 제조사 등과 협력하고 있다.그림 13) 기존 레이더와 4D 이미징 레이더 비교도 14) 4D 이미징 레이더 시장 규모 전망자료:삼성 증권 라이더는 1) 넓은 반경 범위 내에서 작은 물체 감지가 가능하며 2)정확한 단색 3D이미지를 제공하고 3)형태 인식에 있어 정확도가 높고 4)HD Map과 함께 사용할 경우 정확한 위치 파악이 가능한 장점이 있다.HD맵은 도로 단위인 기존 지도의 2차원을 넘어 차선 단위까지 3차원(도로, 측위, 차선)에 담고 인지 범위를 확장시킬 수 있는 지도이다.카메라와 레이더만 봐서 파악하기 어려운 물체, 도로 상황을 정확히 파악할 수 있다는 점이 라이더의 최대 강점이다.한편 1)가격이 높아 라이더 탑재가 제한적으로 적용되고 있으며, 2)전파보다 파장이 짧은 빛을 활용하기 때문에 레이더에 비해서 탐색 범위가 좁고 특히 고속 주행에서 활용되기 어렵다는 한계가 있다.또 3)레이저 빔은 안개, 먼지 등 작은 입자에도 반사되기 때문에 날씨 등 주변 환경에 민감하고 4)미관을 해친다는 단점이 있다.라이더는 작동 방식에 의해서 큰 기계 회전식(Mechanical)와 고정식(Solid State)으로 나뉜다.기계 회전식은 레이저와 센서 모듈이 회전하고 1개만 설치해도 360차례 환경을 파악하는 데 유리하지만 원가 경쟁력이 유선보다 부족하다.고정식은 레이저와 센서 모듈이 고정되어 있어 차 주변 4면을 모두 감지하기 위해서 통상 4개 이상 들어간다.현재 대부분의 자동 운전 차는 기계 회전식 라이더 제품을 중심으로 상용화를 추진하고 있지만, 대량 생산에 적합한 고정식은 내구성과 가격 경쟁력, 다른 자동차 부품에 감출 수 미관의 면에서 장점으로 차츰 확대될 것으로 예상된다.그림 17)라이더 센서 부착-바 자동 운전 차도 18)라이더 기술 분류 및 주요 글로벌 기업자료:news.voyage.auto자료:이 베스트 투자 증권 리서치 센터, 각 제조사, SOSLAB카메라와 레이더 시장은 기존의 대형 자동차 부품 회사가 대부분 차지하고 있지만, 라이더는 특허 등의 이유로 Velodyne, Luminar(미국)와 Valeo, Innoviz(유럽) 같은 스타트 업 기업을 중심으로 분산되고 있다.그러므로 라이더 산업 내에서는 규모가 작은 회사가 대부분이며, 각국의 완성 차 OEM과 주요 Tier1기업은 관련 기업에 투자하거나 전략적으로 협업 관계를 맺고 있다.지난해 하반기에 Ouster가 라이벌 회사의 Velodyne를 전격 인수 합병에 뛰어들면서 라이더 산업 내의 변화도 일어났다.국내 Tier1기업으로서는 만도가 있는 스타트 업으로 서울 로보틱스, 라이드로, 에스 오에스 랩 등이 존재한다.에스오에스 랩의 경우 현대 자동차 그룹 및 만도와 기술 제품 개발 협업을 추진하고 있다.현대 모비스는 지난해 스타트 업 라이트 IC테크놀로지와 전략적 파트너십을 체결하고 기계 회전식 라이더 대신 반도체형 전자식 라이더인시스템의 구현에 나섰다.라이더의 가격은 현재$500~1000수준으로, 레이더와 카메라보다 비싸지만 최근 급속히 하락하고 있다.2010년대 초에$70,000수준이었다 라이더의 가격은 2019년에 1대당$10,000정도로 떨어진 뒤 2021년에 본격적으로 라이더가 양산되기 시작했고 제품 가격은$1,000이하로 떨어졌다.Luminar는 코스트 퍼포먼스가 뛰어난$500수준의 제품을 개발하여 향후 라이더 생산 단가를$100까지 내리는 것을 목표로 하고 있다.RoboSense, Huawei, Livox등 중국 기업도$200수준의 저가 라이다제품을 생산하고 자국의 자동차 업체에 납품하고 있다.가격 인하로 라이더의 활용도도 높아질 것으로 예상된다.그림 19)글로벌 라이더메이커별 쉐어도 20)라이더가격 추이 전망자료:Yole Development/주:2019년 기준 자료:이 베스트 투자 증권 리서치 센터, SA, 재가공 주:2022년 기준 4. 어떤 센서를 사용해야 하는가?현재 차량용 센서 시장 내 탑재량을 보면 센서에서 카메라가 거의 절반 가까이 차지하고 있다.이는 카메라가 1)색상 인식이 가능한 유일한 센서이며 2)카메라 모듈 단가가 다른 센서보다 싸고 3)Tesla등 자동 운전 선두 기업이 카메라를 주요 센서로 사용하기 때문이다.또 ADAS고도화 → 카메라 탑재량 증가와 함께 뷰잉부터 탐사로 전환되는 경향에 맞추어 탐사와 뷰잉+센싱 카메라 비중이 갈수록 늘어날 것으로 전망한다.현재 수준 2단계인 ACC(Adaptive Cruise Control), AEB(Automatic Emergency Braking), LKAS(Line Keep Assistance System)등의 주행 보조 기능의 채용 비율이 지속적으로 증가하고 있으며 특히 ACC를 옵션으로 채용하는 비율이 늘고 있다.이런 기능은 주로 카메라와 레이더를 상호 보완적으로 활용하고 앞으로 침투율이 높아질 것으로 예상된다.시작의 라이더의 경우 1)가격 부담 및 2)고속 주행시의 위험성 증가와 내구성 등의 기술적 한계로 카메라와 레이더보다 활용되지 않았다.그러나 업계에서는 안전성과 신뢰성 때문에 3개 노조가 불가피하다는 의견으로 모였으며, 레벨 3의 상용화가 진행된 라이더 기업 등도 다시 관심을 모으고 있는 상황이다.그림 21)차량용 센서 시장 탑재량 추이 및 전망도22)주행 보조 기능 채용 비율자료:TSR, 메리츠 증권 리서치 센터 자료:IDTechEx Research에서 다시 인용, 미래 에셋 증권 리서치 센터 ADAS를 구현하기 위한 대표적인 센서인 카메라, 레이더, 라이더는 각각의 장점과 단점이 있어 결과적으로 기술 발전을 목표로 각 기업마다 추구하는 전략이 다르기 때문에 정답은 없다.대부분의 자동 운전 업체는 센서별 장단점이 뚜렷한 만큼 상호 보완적으로 사용하거나 3개의 센서를 모두 탑재하는 방식을 고르고 있다.예컨대 현대 자동차는 카메라, 레이더, 라이더 등 각종 센서로부터 획득한 데이터를 통합하여 차량 주변 환경 정보를 보다 정확히 파악하는 “센서 퓨전”방식을 채용했다.고속 도로 자동 운전 시스템의 경우 전 측면 레이더와 라이더가 전방 영역을 담당하는 전 측면·후 측방 레이더, 광각 카메라, 뒤쪽 방식 카메라가 측면 및 후방 영역을 커버한다.센서 퓨전을 통해서 각 센서 간의 장점과 단점을 보완하고 장점을 부각하는 것이다.알파벳의 자회사인 웨이 모(Waymo)는 바이두, GM등 3개의 센서를 모두 활용하고 있다.또한 자동 운전 단계가 높아지면서 카메라, 레이더, 라이더의 수가 약 2~3배 정도 늘어난 것으로 나타났다.그림 23)자동 운전 센서별 비교(카메라, 레이더, 라이더, 센서 퓨전)그림 24)자동 운전 차 브랜드별 센서 탑재 현황자료:LG이노텍, 하이 투자 증권자료:우리 금융 경영 연구소, 재가공 반면 테슬라의 자동 운전 시스템은 오로지 8개의 카메라 모듈만 사용했으며, 일반적인 자동 운전 솔루션과는 대조적이다.2021년에 레이더를 제거한 데 이어 2022년 10월에는 초음파 센서도 제거했다.테슬라의 CEO인 이ー롱, 마스크는, 라이더 센서를 이용하는 것은 바보 짓이라고 언급하기도 했다.테슬라의 ADAS시스템은 “오토 파일럿(Autopilot)”향상된 오토 파일럿(EAP, Enhanced Autopilot), FSD(Full-Self Driving), FSD Beta에 나뉘어 레벨 2.5에 해당하는 FSD는 현존하는 자동 운전 중 가장 완성도가 높다고 평가되고 있다.이런 배경에는 각종 장치의 통제 시스템을 효율적으로 만들고 딥 러닝의 효과를 극대화하는 자체 설계한 Dojo라는 슈퍼 컴퓨터가 뒷받침한다.인공 지능을 통해서 차량에 장착된 8개의 카메라가 수집하는 수많은 데이터를 학습하고 개선하는 자동 운전 기술을 향상시킨다.즉, 카메라를 소형화하고 개수를 늘리고 라이더의 장점인 오차 범위에 따라잡을 수 있어 AI을 통해서 자동 운전을 충분히 실현할 수 있다는 것이다.테슬라가 카메라를 선택한 이유는 비용과 전력 사용량을 효율적으로 조절하려는 것으로 보인다.카메라 기반 시스템은 라이더 기반 시스템보다 싸고, 오로지 카메라 센서만으로 자동 운전 시스템을 운용하고 전력 소모량을 줄이고 주행 거리를 늘리기에 초점을 둔 것이다.또 레이더의 도로상의 불충분한 성능과 적응력 등도 언급된다.라이더는 주행 중에 난데없이 날아오는 물체처럼 창문과 물체가 다가오면 물건을 정확히 인지하고 대부분이 지도에 크게 의존하기 때문에 지도 고효율 대형 도로에서만 사용할 수 있어 아직 적응력이 떨어진다.먼저 언급했듯이, 라이더는 HD Map와 시너지 효과를 내는 장점이 있다.하지만 센서를 탑재한 차량 기반으로 HD Map을 구축하는 것은 그것 자체로 많은 비용이 들어 지도의 최신화 때문에 많은 자원이 소모된다.그러므로 테슬라는 도로 여건이 지속적으로 변화하므로 정밀도 높은 지도를 사용하지 않고 상대적으로 낮은 비용으로 카메라에서 수집한 데이터를 이용하고 차량이 인간처럼 그 자리에서 환경을 식별하고 판단해야 한다는 관점에서 보고 있다.한편 지난해 하반기에 비전 센서 100%로 변환하고 얼마 되지 않아 테슬러가 미국 연방 교통 위원회에 레이더 추가 계획을 신고한 것이 알려지면서 테슬러의 카메라 방식 자동 운전 기조에 다시 변화가 생겼다.그림 25)테슬라의 오토 파일럿 및 카메라도26)HD Map구조자료:Tesla자료:대신 증권 리서치 센터, Lyft5. 차량용 반도체 기존의 완성 차 업체들은 전기 자동차 자동 운전 차 등 새로운 패러다임을 맞았고, 자동차 산업은 큰 변화의 물결에 놓이게 됐다.현재 전 반도체 중 차량용 반도체는 약 10%를 차지하고 있다.최근 자동차에 쓰이는 반도체가 점점 늘어났으며 완전 자동 운전에 발전하게 되면 15%를 넘을 것으로 보인다.기존의 내연 기관 자동차는 300개 이상 사용되고 있었지만 전기 자동차는 1,000개 이상 사용되고 자동 운전 차로 전환되면 약 3,000개 이상 사용된다고 예상된다.그림 27)차량용 반도체 공급 체인의 흐름자료:자동 운전 자동차와 반도체의 미래, 재가공 차량용 반도체는 기본적으로 1)드라이버 IC, 2)전원 IC, 3)센서, 4)MCU(Micro Controller Unit)의 4종류로 대별된다.드라이버 IC는 엔진 등의 고 전류 출력이 필요한 장치에 사용되며 주로 고 전류와 고전압 장치를 제어한다.전원 IC는 공급되는 전류를 MCU등에 직류 전원으로 공급하기 위한 반도체로 센서는 주변 상황에 대한 감지를 통해서 MCU가 정확한 상황 판단을 내릴 수 있도록 지원한다.마지막으로 MCU는 차내 전장 시스템 전반을 제어하는 반도체에서 ECU(Electronic Controller Unit자동차 전자 제어 장치)내에 적어도 1개 이상의 MCU가 내장된다.간단히 말하면, ECU는 자동차 엔진과 전자장비를 제어하는 두뇌 같은 핵심 부품인 이 가운데 MCU가 포함된 것이다.자동 운전 기능을 지원하는 ADAS가 고도화되면서 데이터를 효율적으로 보존하기 위한 고성능 메모리 반도체가 필요한 것으로 보인다.그러므로 DCU나 센서 등의 고성능 칩이 가장 빨리 성장하는 것으로 예상된다.DCU(Domain Control Unit)는 ECU와 함께 자동 운전 차의 핵심 부분인 ADAS에 사용되며 카메라, 레이더, 라이더 같은 센서로 인지한 정보를 신속히 판단하고 처리하는 역할을 한다.ADAS용 메모리 반도체 시장은 21년부터 26년까지 연평균 27%씩 성장, 2028년이면 16억 6천 5백만달러 규모의 시장이 형성될 전망이다.그림 28)차량용 반도체 종류도29)자동 운전 차에 적용되는 차량용 반도체 분야자료 : ASML 자료 : 삼성 전자 그림 30) ADAS용 메모리 반도체 시장규모 전망자료 : ASML 자료 : 삼성 전자 그림 30) ADAS용 메모리 반도체 시장규모 전망자료:전략·애널리틱스(SA)/단위:백만달러 6. 투자 접근 1)정말로 자동 운전이 현실화할 수 있는가?→ 투자 접근에 앞서서, 한번 고민하고 볼 필요가 있는 주제라고 생각한다.Negative:2019년 하노버 박람회에서 Continental(독일의 글로벌 자동차 부품 업체)는 1)고속 주행 중에 자동 운전이 고장 났을 때 안전하게 차를 세우기가 쉽지 않다는 점, 2)드라이버가 없는지 운전에 개입하지 않는 만큼 기술적으로 모든 상황을 인식하고 인간보다 높은 수준의 대응이 쉽지 않다는 점, 3)국제적으로 통일된 규제가 없어 기업별에 선제적으로 기술 투자가 어렵다는 점, 4)자동 운전 차에 대한 소비자의 인식이 낮다는 실질적인 어려움을 밝혔다.이런 점을 바탕으로 잘 알려 진 2030년의 자동 운전 차 상용화는 현실적으로 쉽지 않다고 강조했다.기술적인 어려움만 아니라 페달에서 발을 떼어 놓는 일을 넘어 결국 운전대에서 손을 뗄 수 있는 듯한 인간 기계에 대한 완전한 신뢰성의 문제도 남아 있다.2010년대에 많은 자동 운전 기술을 개발하는 기업이 레벨 4,5 같은 완전 자동 운전의 상용화 시점을 2020년 초로 예상했다.그러나 2023년 현재, 저 단계에 해당하는 기술을 상용화한 기업은 없다.많은 완성 차 업체는 목표를 달성하지 않고 여전히 분명한 실현 시기를 제시하지 못하고 있다.Positive:Glendale Analysis에 따르면 레벨 3의 자동 운전 기술은 현재 상용화 초기 2030년 이후 보편화되며 레벨 4이상의 자동 운전 기술은 2025년부터 상용화된다고 내다봤다.레벨 4이상의 자동 운전 기술을 실현하기 위해서, 하드웨어 및 소프트웨어의 개발, 인프라 구축, 법적 토대 마련 등의 숙제를 늦게가 해결하고 있어 드라이버가 없는 수준 4이상의 자동 운전은 각국별로 지정된 구역에서 버스 택시 등에서 시험 운행을 하고 있다.자동 운전 자동차가 현실화하면 사람들은 그 속에서 운전 시간을 보내지 않고 다른 것에 투자할 수 있게 된다.즉, 스마트 폰이 처음 나온 때처럼 새로운 생명 플랫폼이 탄생하는 것이다.그림 31)자동 운전 단계별 성장 전망자료 : 특허청참고자료 : 리포트, 텔레그램, 논문, 관련 서적 등