從歐洲的汽車感測器與汽車人工智慧(AutoSens and Auto.AI)會議返回後,我很明顯地看到,車用電子結構到底應該是集中式(centralized)、分散式(distributed),或者結合兩者,一直不斷地有所辯論,正是問題之所在。隨著現今我們不斷為汽車增加更多安全功能,我們很容易採取「加個功能就加個盒子」的做法,而當這些獨立安全功能變成自動駕駛系統的一部份時,有必要對結構採用更有紀律的做法 。

對於更自動化的系統,我們天生傾向於採用集中式,因此各位會看到Audi、BMW與其他車廠發表端對端電子儀器(end-to-end electronics,E3)的聲明,將所有智慧功能都集中在一個(或少數幾個)處理器上,並在車身周圍安裝「傳統」感測器與制動器,然後連結至一個中樞(hub)。某些人會說,這簡化了安全和保全管理,意即將您的智慧交給中樞,然後非常小心地管理中樞。

但當然,事情可沒有這麼簡單;你可能甚至有種感覺,這是在重複雲端/邊緣的辯論,尤其是在你想到機器學習(ML)、安全/保全與電力的時候。或許我們應該要將更多功能帶入車子的「邊緣」節點,也就是所有感測器。在這部份,單純就是因為我們現在在車上可以看到多少個感測器,例如12個鏡頭、8~12個雷達、兩個光達(LIDAR)…這些感測器會產生大量數據。集中式中樞論點會將所有的原始數據丟給中樞處理。但是這需要支援龐大數據交換能力的網路,能夠處理超過500TOP的中央化電腦,耗電量最多只有1,000瓦。

這樣我們必然對安全主張感到好奇。在所有集中化的流量和運算中,我們能保證危急事件時有多少反應時間?我們如何解決這種系統的備援設計?複製中樞和網路會非常昂貴。如果中央系統故障,會有什麼後顧之憂?這種解決方案對於跛行模式(limp-home)選項,或甚至重大安全回應而言,稱不上理想。

另一方面,將所有的智慧都放在感測器上也不是妥善的解決方案,因為這又回到「一盒一功能」的做法。但隨著我們學到其他的邊緣設備,我們也不希望感測器變得蠢笨。對於視覺相關感測器來說尤其如此。來自於視覺感測器的原始流量可以非常龐大,將每個感測器的資料盡量濃縮是有道理的;在鏡頭進行基本物件辨認、邊緣偵測等等,讓中央處理器在這些物件清單上處理感測器融合。

一項顯而易見的好處是,從感測器到中樞的網路無須支援原始數據流量率。這也就表示,與通訊有關的電力會大幅降低。中樞也因為只要處理物件清單而非原始數據,而無須維持同等效能。這也有安全論點。如果智慧分配出去,就沒有單一點故障的問題。系統有一部份可能會失靈,但您還是可以跛行。此外,每一個智慧感測器都足以更集中在自己本身功能的冗餘上,所以即使出了問題,也是會以整個系統的一部份,和緩地故障。

在這個做法中,要中央化的功能是融合和對來自感測器的物件清單進行高階分析、路徑規劃(駕駛或引導車輛到線道中央或穿過障礙),以及決策(車輛是否要猛踩煞車)。

所以問題解決了,讓所有感測器都聰明一點,然後網路頻寬低一點,對吧?這還沒完。首先,配置更聰明的感測器會讓車子更貴。修理也會更貴;更換擋泥板現在要加上多個內建感測器的成本。還有另一個問題——如果將所有智慧都放在一個感測器上,就不能像你取得原始數據時一樣,能夠在中樞做出有創意的全新之舉。某些鏡頭可能要扮演多種角色,例如提供後照景象又要有(機械學習輔助)自動停車。換句話說,中樞會像是原始數據,又同時是減量數據。

也就是說,這個問題尚無定論。我想大部份的汽車製造廠會喜歡介於兩者之間,但所謂的中間在哪裡,也會是爭論之處。這表示智慧感測器的解決方案必須提供智慧,還要兼具成本與電力效益。這些解決方案必須同時滿足集中和分散的端對端結構,必要時感測器和中樞還必須支援失效保險操作。

針對以上需求,CEVA可提供靈活、低耗電、低成本的內建解決方案;例如CEVA NeuPro 神經網路處理器可以同時當作中央處理器和邊緣節點使用,而CEVA-XM6 視覺處理器提供物件辨識的基礎。

本文同步刊登於電子技術設計2018年12月刊雜誌