China Automotive Multimodal Interaction Development Research Report, 2025
상품코드:1892141
리서치사:ResearchInChina
발행일:2025년 12월
페이지 정보:영문 285 Pages
라이선스 & 가격 (부가세 별도)
한글목차
I. 멀티모달 인터랙션의 폐쇄 루프 진화 : L1 - L4 지능형 조종석의 점진적 진화
China Society of Automotive Engineers(China-SAE)가 공동 발표한 "White Paper on Automotive Intelligent Cockpit Levels and Comprehensive Evaluation"(자동차 지능형 콕핏 레벨과 종합평가에 관한 백서)에 따르면, 지능형 콕핏은 L0-L4의 5단계로 정의되고 있습니다.
콕핏 인텔리전스의 핵심인 멀티모달 인터랙션 기능은 AI 대규모 모델과 다중 하드웨어의 연계를 통해 멀티 소스 인터랙션 데이터의 융합 처리를 실현합니다. 이를 통해 운전자와 승객의 의도를 정확하게 이해하고 시나리오에 따른 피드백을 제공하며 궁극적으로 자연스럽고 안전하며 개인화된 휴먼 머신 인터랙션을 달성할 수 있습니다. 현재 자동차 인텔리전트 조종석 업계는 대략 L2 단계에 있으며, 일부 첨단 제조업체들은 L3 단계로의 전환을 모색 중입니다.
L2 지능형 조종석의 핵심 특징은 "강한 지각, 약한인지"입니다. L2 단계에서는 조종석의 멀티모달 인터랙션 기능이 신호 레벨 융합을 실현합니다. 멀티모달 대규모 모델 기술을 바탕으로 "사용자의 모호한 의도를 이해"하거나 "여러 명령을 동시에 처리"할 수 있어 사용자의 즉각적이고 명시적인 지시를 실행할 수 있습니다. 현재 대량 생산되는 지능형 조종석의 대부분은이 기능을 갖추고 있습니다.
L3 지능형 조종석의 핵심 기능은 "강한 지각, 강한인지"입니다. L3 단계에서는 조종석의 멀티모달 인터랙션 기능이인지 수준에서 융합을 실현합니다. 대규모 모델 능력을 기반으로 조종실 시스템은 현재 상황을 종합적으로 이해하고 사용자가 명시적인 명령을 내리지 않고 적절한 서비스와 제안을 능동적으로 시작합니다.
L4 지능형 조종석의 핵심 기능은 '전체 도메인 인지, 자율적 진화'이며 사용자를 위한 '전체 도메인 지능형 관리자'를 만듭니다. L4 단계에서 지능형 조종실의 용도는 단순한 툴의 속성을 훨씬 뛰어넘고, 사용자의 미표명의 요구를 예측하고, 공유 기억을 가지고, 모든 자원을 사용자를 위해 동원할 수 있는 「디지털 트윈 파트너」가 됩니다. 핵심 경험은 사용자가 명확하게 요구를 인식하거나 표현하기 전에 시스템이 예측과 계획을 완료하고 실행 상태에 있다는 것입니다.
II. 멀티모달 AI 에이전트 : 요청을 이해하고 사고를 예측
AI 에이전트는 지능형 조종실이 L2에서 L4로 진화하는 과정에서 기능을 구체적으로 구현하기 위한 핵심 실행 유닛 및 중요한 기술 아키텍처로 간주됩니다. 음성·시각·촉각·상황 정보를 통합함으로써 AI 에이전트는 단순히 명령을 '이해'할 뿐만 아니라 환경을 '시각화'하고 상태를 '감지'할 수 있어 기존의 분산된 조종석 기능을 일관성 있고 능동적이고 개인화된 서비스 프로세스로 통합합니다.
L2 레벨에서 에이전트의 용도는 "강화된 명령 실행"으로 간주되며 L2 조종석의 인터랙션 능력을 궁극적으로 확장합니다. 대규모 모델 기술을 기반으로 조종석 시스템은 사용자의 복잡한 명령을 여러 단계로 분해하고 다른 에이전트 도구를 순차적으로 호출하고 실행합니다.
현재 에이전트의 용도는 기본적으로 사용자의 명시적이고 복잡한 명령에 대한 응답과 실행입니다. 조종석 시스템은 "능동적으로"무언가를 수행하는 것이 아니라 단순히 "사용자로부터 할당 된 작업을보다 지능적으로 완료"하는 것입니다.
이 보고서는 중국 자동차 산업에 대한 조사 분석을 통해 자동차 조종석에서의 인터랙션 양식 탑재 수, 멀티모달 인터랙션 관련 특허, 자동차 제조업체/공급업체 조종석 인터랙션 솔루션 등의 정보를 제공합니다.
목차
서문
관련 정의
제1장 자동차 조종석의 멀티모달 인터랙션 개요
지능형 조종석 개발 단계
멀티모달 인터랙션 정의
멀티모달 인터랙션 개발 시스템
핵심 인터랙션 모달리티 기술 서론(1) : 촉각 인터랙션
코어 인터랙션 모달리티 기술 서론(2) : 청각 인터랙션
코어 인터랙션 모달리티 기술의 서론(3) : 시각 인터랙션
코어 인터랙션 모달리티 기술 서론(4) : 후각 인터랙션
지능형 조종석에서 대규모 모델의 응용 시나리오
멀티모달 AI 대규모 모델에 기초한 차량 휴먼 인터랙션 기능
멀티모달 인터랙션의 산업 체인
멀티모달 AI 대규모 모델의 산업 체인
멀티모달 인터랙션에 대한 정책 환경
조종석 인터랙션 모달리티의 탑재
제2장 자동차 멀티모달 인터랙션 관련 특허 요약
촉각 인터랙션 관련 특허 요약
청각 인터랙션 관련 특허 요약
시각 인터랙션 관련 특허 요약
후각 인터랙션 관련 특허 요약
기타 인터랙션 모달리티에 관련된 특허 요약
3장 OEM 멀티모달 인터랙션 콕핏 솔루션
BYD
SAIC IM Motors
FAW Hongqi
Geely
Great Wall Motor
Chery
Changan
Voyah
Li Auto
NIO
Leapmotor
Xpeng
Xiaomi
BMW
제4장 공급업체의 멀티모달 콕핏 솔루션
Desay SV
Joyson Electronics
SenseTime
iFLYTEK
Thundersoft
Huawei
Baidu
Banma Zhixing
제5장 대표적인 차량 모델에 있어서 멀티모달 인터랙션 솔루션의 응용 사례
대표적인 차량 모델에 있어서 멀티모달 인터랙션 솔루션의 응용 사례 요약(1)
대표적인 차량 모델에 있어서 멀티모달 인터랙션 솔루션의 응용 사례 요약(2)
대표적인 차량 모델에 있어서 멀티모달 인터랙션 솔루션의 응용 사례 요약(3)
대표적인 차량 모델에 있어서 멀티모달 인터랙션 솔루션의 응용 사례 요약(4)
대표적인 차량 모델에 있어서 멀티모달 인터랙션 솔루션의 응용 사례 요약(5)
All-New IM L6 : 멀티모달 인터랙션 기능의 전체적인 요약
All-New IM L6 : 주요 모달 인터랙션 기능 분석
Fangchengbao Bao 8 : 멀티모달 인터랙션 기능 전체 요약
Fangchengbao Bao 8 : 주요 모달 인터랙션 기능 분석
Hongqi Jinkuihua Guoya : 멀티모달 인터랙션 기능 요약
Hongqi Jinkuihua Guoya : 주요 모달 인터랙션 기능 분석(1)
Hongqi Jinkuihua Guoya : 주요 모달 인터랙션 기능 분석(2)
Hongqi Jinkuihua Guoya : 주요 모달 인터랙션 기능 분석(3)
Denza N9 : 멀티모달 인터랙션 기능 전체 요약
Denza N9 : 주요 모달 인터랙션 기능 분석(1)
Denza N9 : 주요 모달 인터랙션 기능 분석(2)
Zeekr 9X : 멀티모달 인터랙션 기능의 파노라마 요약
Zeekr 9X : 주요 모달 인터랙션 기능 분석
Geely Galaxy A7 : 멀티모달 인터랙션 기능 전체 개요
Leapmotor B10 : 멀티모달 인터랙션 기능 요약
Li i6 : 멀티모달 인터랙션 기능의 전체적인 요약
Li i6 : 주요 모달 인터랙션 기능 분석(1)
Li i6 : 주요 모달 인터랙션 기능 분석(2)
Xpeng G7 : 멀티모달 인터랙션 기능 전체 요약
Xpeng G7 : 주요 모달 인터랙션 기능 분석
Xiaomi YU7 : 멀티모달 인터랙션 기능 전체 요약
Xiaomi YU7 : 주요 모달 인터랙션 기능 분석
MAEXTRO S800 : 멀티모달 인터랙션 기능 전체 개요
MAEXTRO S800 : 주요 모달 인터랙션 기능 분석(1)
MAEXTRO S800 : 주요 모달 인터랙션 기능 분석(2)
MAEXTRO S800 : 주요 모달 인터랙션 기능 분석(3)
2025 AITO M9 : 멀티모달 인터랙션 기능 전체 요약
2025 AITO M9 : 주요 모달 인터랙션 기능 분석(1)
2025 AITO M9 : 주요 모달 인터랙션 기능 분석(2)
2025 AITO M9 : 주요 모달 인터랙션 기능 분석(3)
2025 AITO M9 : 주요 모달 인터랙션 기능 분석(4)
All-New BMW X3 M50 : 멀티모달 인터랙션 기능 요약
All-New BMW X3 M50 : 주요 모달 인터랙션 기능 분석
2026 Audi E5 Sportback : 멀티모달 인터랙션 기능 전체 요약
2026 Audi E5 Sportback : 주요 모달 인터랙션 기능 분석(1)
2026 Audi E5 Sportback : 주요 모달 인터랙션 기능 분석(2)
All-New Mercedes-Benz Electric CLA : 멀티모달 인터랙션 기능 요약
All-New Mercedes-Benz Electric CLA : 주요 모달 인터랙션 기능 분석
제6장 멀티모달 인터랙션 요약과 개발 동향
OEM의 대규모 모델 구성 파라미터의 요약
동향 1 : AI 대규모 모델에 근거한 멀티모달 인터랙션의 진화
동향 2
동향 3(음성 인터랙션)
동향 4(시각 인터랙션)
KTH
영문 목차
영문목차
Research on Automotive Multimodal Interaction: The Interaction Evolution of L1~L4 Cockpits
ResearchInChina has released the "China Automotive Multimodal Interaction Development Research Report, 2025". This report comprehensively sorts out the installation of Interaction Modalities in automotive cockpits, multimodal interaction patents, mainstream cockpit interaction modes, application of interaction modes in key vehicle models launched in 2025, cockpit interaction solutions of automakers/suppliers, and integration trends of multimodal interaction.
I. Closed-Loop Evolution of Multimodal Interaction: Progressive Evolution of L1~L4 Intelligent Cockpits
According to the "White Paper on Automotive Intelligent Cockpit Levels and Comprehensive Evaluation" jointly released by the China Society of Automotive Engineers (China-SAE), five levels of intelligent cockpits are defined: L0-L4.
As a key driver for cockpit intelligence, multimodal interaction capability relies on the collaboration of AI large models and multiple hardware to achieve the fusion processing of multi-source interaction data. On this basis, it accurately understands the intentions of drivers and passengers and provides scenario-based feedback, ultimately achieving natural, safe, and personalized human-machine interaction. Currently, the automotive intelligent cockpit industry is generally in the L2 stage, with some leading manufacturers exploring and moving towards the L3.
The core feature of L2 intelligent cockpits is "strong perception, weak cognition". In the L2 stage, the multimodal interaction function of cockpits achieves signal-level fusion. Based on multimodal large model technology, it can "understand users' ambiguous intentions" and "simultaneously process multiple commands" to execute users' immediate and explicit commands. At present, most mass-produced intelligent cockpits can enable this.
In the case of Li i6, it is equipped with MindGPT-4o, the latest multimodal model which boasts understanding and response capabilities with ultra-long memory and ultra-low latency, and features more natural language generation. It supports multimodal "see and speak" (voice + vision fusion search: allowing illiterate children to select the cartoons they want to watch by describing the content on the video cover); multimodal referential interaction (voice + gesture: 1. Voice reference to objects: while issuing commands, extend the index finger: pointing left can control the window and complete vehicle control. 2. Voice reference to personnel: passengers in the same row can achieve voice control over designated personnel through gesture and voice coordination, e.g., pointing right and saying "Turn on the seat heating for him").
The core feature of L3 intelligent cockpits is "strong perception, strong cognition". In the L3 stage, the multimodal interaction function of cockpits achieves cognitive-level fusion. Relying on large model capabilities, the cockpit system can comprehensively understand the complete current scenario and actively initiate reasonable services or suggestions without the user issuing explicit commands.
The core feature of L4 intelligent cockpits is "full-domain cognition and autonomous evolution", creating a "full-domain intelligent manager" for users. In the L4 stage, the application of intelligent cockpits will go far beyond the tool attribute and become a "digital twin partner" that can predict users' unspoken needs, have shared memories, and dispatch all resources for users. Its core experience is: before the user clearly perceives or expresses the need, the system has completed prediction and planning and entered the execution state.
II. Multimodal AI Agent: Understand What You Need and Predict What You Think
AI Agent can be regarded as the core execution unit and key technical architecture for the specific implementation of functions in the evolution of intelligent cockpits from L2 to L4. By integrating voice, vision, touch and situational information, AI Agent can not only "understand" commands, but also "see" the environment and "perceive" the state, thereby integrating the original discrete cockpit functions into a coherent, active and personalized service process.
Agent applications under L2 can be regarded as "enhanced command execution", which is the ultimate extension of L2 cockpit interaction capabilities. Based on large model technology, the cockpit system decomposes a user's complex command into multiple steps and then calls different Agent tools to execute them. For example, a passenger says: "I'm tired, help me buy a cup of coffee." The large model of the L2 cockpit system will understand this complex command and then call in sequence:
1.Voice Agent: Parse user needs in real time;
2.Food Ordering Agent: Recommend the best options according to user preferences, real-time location, and restaurant business status;
4.Delivery Agent: Dynamically plan the food delivery time combined with vehicle navigation data (e.g., "food arrives when the car arrives", ensuring that the food is delivered synchronously when the user reaches the destination).
Currently, Agent applications are essentially responses and executions to a user's explicit and complex commands. The cockpit system does not do anything "actively", and it just "completes the tasks assigned by the user" more intelligently.
Case (1): IM Motors released the "IM AIOS Ecological Cockpit" jointly developed with Banma Zhixing. This cockpit is the first to implement Alibaba's ecosystem services in the form of AI Agent, creating a "No Touch & No App" human-vehicle interaction mode. The "AI Food Ordering Agent" and "AI Ticketing Agent" functions launched by the IM AIOS Ecological Cockpit allow users to complete food selection/ticketing and payment only through voice interaction without needing manual operation.
Case (2): On August 4, 2025, Denza officially launched the "Car Life Agent" intelligent service system at its brand press conference, which is first equipped on two flagship models, Denza Z9 and Z9GT. The "Car Life Agent" supports voice food ordering and enables payment by face with face recognition technology. After completing the order, the system will automatically plan the navigation route, forming a seamless experience of "demand-service-closed loop".
In the next level of intelligent cockpits, Agent applications will change from "you say, I do" to "I watch, I guess, I suggest, let's do it together". Users do not need to issue any explicit commands. They just sigh and rub their temples, and the system can comprehensively judge data from "camera" (tired micro-expressions), "biological sensors" (heart rate changes), "navigation data" (continuous driving for 2 hours), and "time" (3 pm (afternoon sleepiness period)) via the large model to know that "the user is in the tired period of long-distance driving and has the need to rest and refresh". Based on this, the system will take the initiative to initiate interaction: "You seem to need a rest. There is a service zone* kilometers ahead with your favorite ** coffee. Do you need me to turn on the navigation? At the same time, I can play refreshing music for you." After the user agrees, the system then calls navigation, entertainment and other Agent tools.
Table of Contents
Foreword
Related Definitions
1 Overview of Multimodal Interaction in Automotive Cockpits
1.1 Development Stages of Intelligent Cockpits
1.2 Definition of Multimodal Interaction
1.3 Development System of Multimodal Interaction
1.4 Introduction to Core Interaction Modality Technologies (1): Haptic Interaction