智能座艙迎來蛻變時刻 大屏幕不再重要

搜狐汽車 發佈 2023-12-20T08:55:32.257198+00:00

在座艙光學領域,預計2025 年全球艙內攝像頭核心部件CIS 晶片市場規模達2.2 億美元,預計2025 年全球乘用車HUD 市場空間達47.3 億美元;

出品 | 搜狐汽車·汽車咖啡館

「基於觸控的交互方式不一定適合車」。

5月中旬,理想汽車在矽谷召開一次分享會,智能空間副總裁勾曉菲談到對智能座艙的思考。他認為,座艙服務的核心點是它的交互形式。

現在的智能座艙的交互主要是觸控為主,語音為輔。按照理想汽車勾曉菲的說法,智能座艙的更好的交互方式會是語音為主,觸控為輔。

這種需求變化主因是觸摸控制的受限性。觸控基於前排屏幕,而駕駛員又只能觸到中控位置,同時占用手、眼會導致駕駛分心,但當前的語音控制水平還不足以承擔起「第一交互通道」的重任。

在業內人士以及消費者看來,當前所謂的「智能座艙」大多帶了幾分敷衍,比如語音交互不流暢、查找功能不便捷,「智能化」反而成了「低智商」。

讓智能座艙從「能用」到「好用」,提升交互能力是根本。今年,在一些公司的新品發布中,屢次提到交互系統提升,百度Apollo明確提出,文心大模型將讓智艙在語音交互方面響應更快、駕乘感受更好。

座艙的「堆料」瓶頸有待突破

如今,只要坐上一輛新能源汽車,超大中控屏幕、智能語音對話等功能已經不足為奇,只不過按照車型級別和配置高低,這些功能的體驗感有好有差。

為了追求座艙差異化,主機廠只好拼功能數量,諸如屏幕跟隨音樂旋轉跳動、巨幕觀影、座艙音樂廳等等,疊加看似酷炫、實則在駕乘中並不觸及智能核心的功能。

智能駕駛解決方案研發商MINIEYE的智能座艙負責人楊一泓表示,現在的智能座艙帶來一個問題是:消費者學習成本變高。

「智慧型手機對很多老年人是不太友好的,汽車也如此。如果某些智能化功能太過複雜,那麼駕乘人員可能使用頻率就會降低,反而荒廢了這些功能。所以智能座艙的互動設計,我認為不能「炫技」,而是從實際功能性出發,真的讓消費者用起來,並且喜歡用。」楊一泓說道。

車企也認識到這類問題,梧桐車聯(長安汽車與騰訊合資公司)戰略管理高級總監崔睿哲認為,智能座艙某種程度上正經歷「堆配置、堆功能」的階段,公司在做一些「減法」。

6月份,中科創達智能汽車副總裁陳嘯在2023江淮汽車智能網聯與線控底盤論壇上,發表了對智能座艙進程趨勢的觀點:從用戶使用功能的頻率和所採用的技術成熟度上看,劃分為四個象限,第四象限中的使用頻率更高、技術更成熟的應用是智能座艙真正需要的功能。


第四象限中場景功能包括AR/VR、玻璃窗/天窗成像、情緒識別等。與現在的多屏聯動、硬屏觸摸相做對比,主要是交互方式的變化,從物理觸摸變成虛擬控制,即通過語音、眼睛、手勢等。

所以當Apple Vision Pro問世,MR(混合現實)上車再被熱議。事實上,小部分車企已經做了相關嘗試,像蔚來的AR眼鏡,奧迪的車載VR體驗系統……只不過離完美的交互狀態還差很遠。

智能座艙交互需要一場蛻變。

搶奪多模交互市場 拐點何時到來?

「實體屏幕依然會存在,但我有一個判斷,未來實體屏幕和觸控將不再是座艙交互的中心,取而代之的是自然交互(語音、手勢、眼球跟蹤)+AR-HUD」,地平線生態發展與戰略規劃副總裁李星宇在去年就提出過此觀點。

觸摸控制需要占用駕駛員手和眼的使用資源,會對使用駕駛模式的人產生駕駛的安全隱患。所以,未來的交互模式必然是多「感官」融合。今年來看,感官融合領域進展情況如何呢?

語音交互:如前文所言,語音交互能力提升將對座艙交互生態發展起核心作用。當前,已經有量產車型可以實現語音連續對話、免喚醒詞等功能,不過在語音識別和語義理解方面還有很大的提升空間。

在多模態融合趨勢下,強化語音也離不開視覺、手勢的參與。科大訊飛提出在語音識別方面,通過深度降噪技術使其在高噪場景下識別率超92%;並且車內注視感知採用視線交互技術及DMS,該技術於去年底在星途瑤光車型上落地量產;行為感知支持10多種手勢交互。

多模多通道語音分離技術讓汽車聽得更清楚,比如唇形+聲音融合,讓系統的感知更準確。

手勢交互:汽車上的手勢交互效仿手機,「對著鏡頭比個耶,自動拍張照片……」,起初,一些「無用」的功能搬上汽車,現在手勢交互得到了更廣的融合應用。目前在理想等品牌車型上,語音與手勢交互已在多處使用。比如用手指向窗戶、同時說「把它打開」,系統便能會意執行。

手勢在交互中的地位如同人際交流中的肢體語言,在人機互動更深層面少不了手勢的加入。Apple Vision Pro已經闡明了這一點,它就是靠追蹤人的眼神和手勢來完成任務操作。

視覺交互:眼神交流在今後的座艙內會成為一大流行趨勢。當前眼球跟蹤系統已經應用於安全檢測方面,包括DMS(駕駛員監控系統)和OMS(車內人員監控系統)。

此外,AR-HUD也為視覺增加安全性,以防駕駛員看屏幕而將視線離開路面,但AR-HUD的顯示信息又不能遮擋實際道路信息,所以就如何平衡人眼觀感提出更多考驗。

人體感官與機器的自然交互是實現智能座艙的終極形態,其中「多模態融合」已是不可逾越的環節。

進展至此,多模態融合最大的挑戰有哪些?搜狐汽車對業內專家進行了詢問,經綜合整理,其挑戰集中在幾個方面:

第一,算力要求更高。不僅是CPU算力,GPU和NPU都要求更高的算力,所以需要對座艙SoC有足夠深的了解才能很好的運用這些算力。不過,隨著多模態融合的產品價值被車企關注到,將會分配更多算力用於多模態融合落地,且座艙SOC的算力也在不斷提升。

第二,硬體設備需求大。智能座艙將為滿足艙內全員的不同需求,需要更多攝像頭、麥克風、屏幕、音響等,如何協調這些設備將成為智能座艙的挑戰。

但當前攝像頭配比率仍是偏低的,無法做到所有車型的一致性體驗,只能在部分高配車型上部署,制約了多模態融合的發展。隨著C-NCAP法規的推進,預計2025年會實施DMS上車標準,屆時DMS配比會大幅提升,助力多模態融合發展。

第三,集成複雜度提升。不管是單從智能座艙來說,還是艙駕融合,信息交互的複雜度大大提高。例如在人機共駕階段,如何通過高效的HMI(人機界面)讓用戶在自主駕駛和自動駕駛間安全切換?

在產業鏈企業看來,技術演進要有更多的上車訓練。MINIEYE表示,情緒識別等技術領域,其實對於研發商來說已經有了一定積累,但如何把技術轉化為功能和產品,並且讓消費者買單,更多是主機廠的考量。

科大訊飛也認為,隨著應用越來越廣泛,主機廠和供應商共同協作,多模態交互才會逐步成熟。

均聯智行中國區 CTO朱魁 表示,2015年至今,座艙進入第一個智能階段——「智能互聯駕艙」;現階段到 2025 年左右為「智能共情座艙」階段,將實現多模態交互和 AI 主動交互,可以滿足駕乘全員的在線娛樂和個性化服務。


小結

自2015年網際網路進入汽車,智能座艙的演進維度愈加廣闊。僅交互系統就涉及語音、視覺、手勢等,此外還有晶片、域控制器、傳感器等硬體設備。

華安證券報告稱,智能座艙將擁有千億細分市場。在座艙光學領域,預計2025 年全球艙內攝像頭核心部件CIS 晶片市場規模達2.2 億美元,預計2025 年全球乘用車HUD 市場空間達47.3 億美元;座艙聲學領域,預計2025 年全球車載功放市場規模達46.6 億美元。

當自動駕駛風潮漸弱、落地艱難的時刻,智能座艙產業再次升溫,智能座艙領域細分賽道的寶藏有待挖掘。

關鍵字: