한양대학교 전기공학과 강창묵 교수
자동차 산업에서 차량용 인공지능(AI) 비서는 단순 음성 제어를 넘어 인포테인먼트, 공조 시스템, 차량 설정 등 차량 내 모든 인터페이스를 통합 제어하는 중심 허브로 빠르게 진화하고 있습니다.
과거에는 내비게이션 설정, 전화 응답, 음악 재생 정도의 단순 명령 수행에 그쳤다면, 이제는 자연어 처리(NLP)와 대규모 언어 모델(LLM)의 비약적 발전을 기반으로 사용자의 질문 의도를 스스로 파악하고, 맥락을 이해하며 대화형 인터페이스를 제공하는 수준까지 올라왔습니다.
이를 대표하는 혁신 사례로는 2024년 CES에서 소개된 ‘폭스바겐 ChatGPT 기반 AI 비서’가 있습니다. 이 시스템은 단순한 명령 수행을 넘어, 사용자의 질문 의도를 파악하여 △일정 조회 △날씨 확인 △목적지 추천 등 복합적인 질의응답을 자연스럽게 처리하며, 다단계 흐름의 대화도 가능하게 설계되었습니다.
또한 일부 프리미엄 차량 모델에는 운전자의 감정 상태를 실시간으로 파악하고, 이에 따라 차량 내 환경을 자동으로 조절해주는 ‘감성 인식 기술(Affective Computing)’이 적용되기도 했습니다. 이 기술은 운전자의 음성 높낮이와 말투, 얼굴 표정의 변화, 시선의 움직임 등 다양한 비언어적 신호를 종합적으로 분석해 감정 상태를 인식하는 고도화된 시스템입니다.
이렇게 분석된 정서적 반응을 바탕으로, 차량은 자동으로 실내 조명 색상, 음악 장르, 공조 설정 등을 조정합니다. 예를 들어, 운전자의 목소리에 피로감이 감지되거나 표정이 경직되어 있다면, 부드러운 조명과 잔잔한 음악을 재생하고 실내 온도도 쾌적한 수준으로 맞추는 방식입니다. 이는 단순한 음성 명령을 넘어, 운전자와 차량이 정서적으로 연결되는 새로운 사용자 경험을 만들어냅니다.
이 시스템은 감정에 따라 반응하는 ‘감정 코디네이터’ 역할을 수행하며, 점차 인간 중심의 운전 환경을 만들어가는 방향으로 진화하고 있습니다. 향후에는 심박수, 피부 온도, 호흡 패턴 등의 생체 신호 분석 기술과 통합되어, 더욱 세밀하고 개인 맞춤형 대응이 가능한 스마트 운전 파트너로 발전할 전망입니다.
또 이 밖에도 이미 상용화된 플랫폼으로 애플의 '카플레이(CarPlay)', 구글의 '안드로이드 오토(Android Auto)', 그리고 현대자동차와 카카오가 협력해 개발한 '카카오 i' 등이 있습니다.
애플 카플레이는 iOS 생태계와 연동되어 시리(Siri) 기반 음성 명령에 맞춤형 제안 기능을 강화했고, 구글 안드로이드 오토는 문자 요약·스트리밍 앱 제어·실시간 교통 정보 등 폭넓은 확장성을 제공합니다. 현대차의 카카오 i는 지역 기반 콘텐츠 추천과 선호도 분석으로 국내 사용자 경험을 최적화하며, OTA(Over-the-Air) 업데이트를 통해 지속적으로 기능을 고도화하고 있습니다.
이처럼 개별 기능을 넘어 실시간 상황 인식과 예측 기반 반응이 가능해지면서, AI 비서는 단순 보조 도구에서 벗어나 운전자의 요구를 선제적으로 파악하고 대응하는 ‘지능형 동반자’ 로 확장되고 있습니다.
AI 비서, 단순 제어에서 ‘지능형 동반자’로 발전하다
차량용 AI 비서는 이제 운전자의 주행 습관과 패턴을 학습해 예측 기반 맞춤형 서비스를 제공합니다. 단순히 내비게이션 설정이나 음악 재생 명령을 수행하는 수준을 넘어, 사용자의 일상과 운전 패턴을 분석하여 맞춤형 서비스를 선제적으로 제공하는 방식으로 발전하고 있는 것이죠.
예를 들어, AI 비서가 출근 시간에 맞춰 교통 상황을 미리 안내하거나, 사용자의 캘린더와 연동해 미팅 일정에 따라 자동으로 목적지를 설정해 줍니다. 사용자의 위치 데이터와 과거 기록을 기반으로 자주 방문하는 장소를 자동으로 추천하며, 운전자의 하루를 함께 계획해주는 역할을 수행하기도 합니다.
또, 운전자의 스트레스 상태를 감지해 편안한 음악을 재생하고, 운전자의 운전 스타일을 학습하여 드라이브 모드나 공조 시스템을 자동 조정하는 등 정서적 반응까지 고려한 개인화 시스템도 상용화 되어 있습니다.
이러한 변화는 단순히 기능 확장에 그치지 않습니다. 기존의 HMI(Human-Machine Interface)가 운전자의 명령에 따라 움직이는 수동적인 방식이었다면, 최신 AI 비서는 사용자의 상황과 감정을 스스로 인식하고 선제적으로 반응하는 능동적 시스템으로 바뀌고 있습니다. 여기에 OTA(Over-the-Air) 기술이 더해지면서, AI 비서가 자체적인 학습과 업데이트를 진행하며 운전자와의 관계를 깊이 있게 형성할 수 있게 되었죠.
자동차는 더 이상 ‘운전자의 명령을 따르는 기계’가 아니라, ‘함께 움직이고 판단하는 파트너’로 진화하고 있는 셈입니다.
이런 흐름 속에서 현대자동차그룹은 2025년 ‘HMG 개발자 컨퍼런스’를 통해 차량용 AI 플랫폼의 미래를 구체화한 ‘Pleos 25’를 공개하며 주목을 받았습니다. Pleos는 ‘Pervasive(언제 어디서나)’, ‘Learning(지속적 학습)’, ‘Emotionally-Oriented(감성 지향)’의 약자로, 운전자와 정서적으로 교감하고, 맥락 기반으로 대응하는 AI 비서를 지향하는 기술 체계입니다.
Pleos 25는 다음과 같은 4가지 핵심 구성요소로 이루어져 있습니다.
① Pleos Connect
Android Automotive OS 기반의 인포테인먼트 시스템으로, 스마트폰과 유사한 UX와 AI 음성 비서의 깊이 있는 통합을 제공합니다.
② Gleo AI
LLM 기반 자연어 처리 기술을 바탕으로 사용자의 말투, 감정, 맥락을 실시간 학습하며 상황에 따라 반응하는 차세대 대화형 AI 비서입니다.
③ Pleos Vehicle OS
고성능 차량용 컴퓨터와 중앙 집중형 제어 아키텍처를 통해 차량 내 모든 시스템을 통합하고, OTA 업데이트를 통해 기능을 지속적으로 확장합니다.
④ Pleos Playground
개발자 친화적인 개방형 API 생태계를 제공해, 외부 앱과 서비스를 차량 시스템에 유연하게 통합할 수 있도록 지원합니다.
이러한 플랫폼은 단순히 AI 비서를 ‘차량의 기능 일부’로 보지 않고, 운전자와 지속적으로 상호작용하는 주체로 설정하고 있다는 점에서 큰 의미를 가집니다. 특히 Pleos는 차량의 하드웨어와 소프트웨어, 사용자 경험 전체를 유기적으로 연결하여, AI가 차량이라는 공간에서 지능적인 존재로 자리 잡게 하는 근본적 패러다임 전환을 상징합니다.
최근에는 이러한 AI 비서의 역할이 인포테인먼트 제어를 넘어, ADAS(첨단 운전자 보조 시스템)와의 통합까지 지향하며 더욱 진화하고 있습니다. 특히 LLM(대규모 언어 모델) 기반 기술을 차량 내에 경량화하여 적용하는 ‘온디바이스 AI’ 방식이 주목받고 있는데요, 이를 통해 AI는 운전자의 성향과 실시간 주행 조건을 파악하여 차간 거리 유지나 위험 상황 대응, 피로도 인식 등의 실질적인 주행 의사결정에도 개입할 수 있게 됩니다.
이는 단순한 정보 제공자를 넘어, 차량 제어와 판단을 함께 수행하는 ‘공동 운전자(co-pilot)’의 개념으로 확장되고 있다는 뜻입니다. AI 비서는 이제, 함께 상황을 인식하고 대응하며 나아가 감정까지 이해하는 존재가 되고 있는 것입니다.
결론적으로 차량용 AI 비서는 이제 단순한 기능 수행자나 음성 명령 처리기기가 아니라, 운전자와 정서적·인지적으로 상호작용하는 ‘스마트한 동반자’로 자리잡고 있습니다. 이러한 기술은 자동차를 단순한 이동수단에서 ‘지능형·관계형 공간’으로 전환시키는 핵심 기반이 되고 있으며, 향후 자동차의 개념을 완전히 새롭게 정의하는 변곡점이 될 것입니다.
조작이 아닌 대화, 반응이 아닌 이해. 운전자가 차량을 믿고 의지할 수 있는 시대, 그 중심에는 차량용 AI 비서가 있을 것입니다.