大約在1年前,Elon Musk曾公開宣佈:「我真的認為自動駕駛已經不成問題了。」

鑒於人工智慧(AI)的全面發展,以及合作開發機器人汽車(robo-car)的商業和科技公司的大量聲明,自動駕駛的前景似乎不言而喻。

科技公司和汽車製造商都堅持自己提出的2019~2021年之間推出首批四級/五級自主駕駛汽車的承諾。沒有人公開反對——至少目前還沒有。

商業和投資方都理解並鼓勵在自主駕駛汽車領域的這些商業願望。然而事實真相是,工程技術人員仍在為諸多目前還沒有技術解決方案的問題而煩惱。

在最近由麻省理工學院(MIT)舉辦的「大腦、思想和機器研討會(Brains, Minds and Machines Seminar)」的系列會議上,Mobileye合夥創始人兼技術長Amnon Shashua坦率地表示:「當人們提到自主駕駛汽車呼之欲出時,其實他們並不知道說的是什麼。」

不過,Shashua並非悲觀主義者。作為一位企業主管,Shashua表示,「我們不是在等待科學革命,那要等上50年。我們只是在等待一場技術革命。」

開放問題

那麼,有哪些開放問題仍然需要技術革命來回答呢?

消費者已經看到在加州山景城(Mountain View, California)行駛的豆莢車(podcars)了。最近在亞利桑那州(Arizona),一輛處於自主駕駛模式的Uber汽車與一輛人工駕駛的左轉彎的SUV汽車撞在一起。

20170612NT01P1 在亞利桑那州坦佩市(Tempe)發生的Uber事故現場。 (圖片來源:當地NBC新聞)

現在是時候區分「科研專案」(正如Shashua所說的那樣)機器人汽車(在安靜的大街上做YouTube展示)和汽車製造商需要但還未有的商用化自主駕駛汽車了。

正如筆者從Mobileye技術長及眾多學者、產業分析師和從事機器人汽車「感知」工作的企業家那裡聽到的那樣,困擾自主駕駛汽車產業的「開放問題」清單已經變得很長了。

有些問題關聯性很強,但從廣義角度看,我們可以把它們分成五類:1.自主駕駛汽車的駕駛行為(在密集交通中的協商);2.更具體更深度的「增強型」學習和邊緣案例;3.測試與驗證(我們可以驗證人工智慧駕駛汽車的安全性嗎?);4.安全與防篡改(防止無人駕駛汽車被駭);5.更理性卻重要的「多好算夠好」的問題(因為自主駕駛汽車不會很完美)。以下作詳細討論。

1.駕駛行為

Shashua稱之為「駕駛策略」。他的意思是,自主駕駛汽車必須「在密集交通時進行協商」。The Linley Group資深分析師Mike Demler雖然同意這個觀點,但更願意使用術語「駕駛行為」。

「透過行為這個術語來表示我們每天一直在做的安全駕駛的各個方面,這是車管局(DWV)駕駛手冊中的規則所無法描述的。」Demler指出。

這些還不是所謂的「偏僻案例」,他認為,「正如我們在最近的Uber事故中所看到的那樣,安全駕駛遠不止保持你的車道和觀察速度限制。在信號燈變黃色或視野不清晰時,人們知道(或應該知道)應該很小心地進入十字路口。你可能不會違反任何法律,但向前行進可能也不是什麼好事。」

Demler補充:「駕駛行為的其他例子有司機之間常見的互動,不管是好的還是壞的。當你緊跟前車行駛時你會做什麼?什麼時候你應該減速讓其他車擠進來?如何在好市多(美國Costco連鎖企業)或擁擠的購物中心輕鬆地找到停車場?」

他表示,「四級或五級汽車也需要做到這一點。所有的示範視訊都顯示的是一輛車在通暢的交通環境下行駛,這是比較容易實現的。」

駕駛策略或駕駛行為有關的地方,是在無人駕駛汽車必須能夠在沒有書面規則的地方行駛,「感覺」或本能取代數字式的「書本學習」時。

2.深度的「增強學習」

Demler指出的行為問題大部分是軟體問題。但這也正是深度學習開始和麻煩開始的地方。

這裡的問題不是針對物體檢測的「深度學習」。舉例來說,在電腦視覺中,這種深度學習可以教會機器將一個邊界盒放在道路上的物體周圍,這已經證明是有效的。但在駕駛策略中,關鍵是深度的「增強學習」。

Shashua喜歡舉雙線車道併道的例子——此時沒有路權規則。在這個領域中,「我們喜歡使用機器學習,」Shashua表示,「機器可以透過觀察資料而不是由規則程式設計進行學習。」

為了教授機器人汽車在沒有規則的情形下如何進行駕駛,機器學習是一個理想的工具。「觀察和收集資料要比理解你想解決問題背後的規則要簡單得多。」Shashua指出。但這也是機器學習暴露其弱點的地方。

「機器學習是基於資料統計和資料篩選能力。」Shashua表示,但它也可能「遇到極端情況而失敗。」總之,為了教授機器人汽車駕駛策略,機器學習需要收集「稀有事件」(「事故」),這可不是件容易的事。

英國坎特伯雷大學(University of Canterbury)機器人倫理專業博士生Sean Welsh在他最近發表的文章中對增強型學習進行了解釋:

就深度增強學習而言,這依賴於「價值函數」來評估策略應用所產生的狀態。

價值函數是評估狀態的一個數位。在國際象棋中,像白兵e7進e5這樣強勢的開局就具有很高的價值。而像兵a2進a3這樣弱勢的開局所隱含的價值就比較低。

這種價值函數就像是電腦發出「哎喲」一聲。增強學習的名字來源於心理學中的積極和消極增強。

關於Uber的亞利桑那州事故,Welsh寫道:「直到Uber汽車撞到某物及深度學習的價值函數記錄到數位等效值之前,遵循那種策略都將導致壞的狀態——車的一邊撞壞並駛向錯的方向。哎喲!」沒有經驗的Uber控制系統可能無法及時正確地量化風險。

Vision Systems Intelligence(VSI)創始人兼顧問Phil Magney相信,人工智慧有能力訓練無人駕駛汽車的行為更像是人的行為,例如有時違反直覺地使用「一點點激進的措施實現併道」。

但資料仍然是「鴻溝」,Magney表示:「要想使人工智慧被人們所接受,你需要龐大的資料來訓練你的行為模型。你可以出去收集盡可能多的資料,但你仍然不可能測試到所有邊界情況,而且也不可能以安全的方式做到。因此在這種情況下你必須求助於模擬資料。」

事實上,Shashua承認,當你考慮到城市與國家之間不同「協商文化」的細微差別時就會發現,回避極端情況可能導致更多的不確定性。不同地區和不同文化下每個新版本的駕駛策略都要求收集新的資料。

缺少全球解決方案是開放問題之一,Strategy Analytics負責全球汽車慣例的總監Ian Riches指出。

關鍵問題歸結於「如何保證基於機器學習的技術的安全。」Shashua認為。在他看來,這「很大程度上是一個開放的問題」。「這是整個產業最薄弱環節。」他警告。

3.測試與驗證

Shashua演講稿中沒有提到(針對人工智慧駕駛汽車的)測試與驗證問題,但DeepScale執行長Forrest Iandola時刻關注著這個問題,這是一家2015年成立於山景城的初創企業。

DeepScale致力於加速「感知」技術,讓汽車即時理解發生在車輛週邊的情況。

Iandola在學術界早已聲名遠揚。他和加州大學伯克萊(University of California, Berkeley)的研究人員——其中一些人現在已經加入DeepScale——共同開發了一款名為SqueezNet的深度神經網路模型(DNN)。SqueezNet不是設計直接用於解決自動駕駛問題,Iandola透露,開發人員的目標是「將模型做得盡可能小,同時保持電腦視覺資料集有合理的精準度。」

Iandola相信,四級自主駕駛汽車中的測試品質保證最重要。「對於二級先進駕駛輔助系統(ADAS)汽車來說,功能性的安全測試也許就夠了。但對於需要能夠完美自主駕駛的四級車來說,需要滿足除了ISO 26262以外的其他自動化測試要求。」

ISO 26262非常適合用於測試發動機控制器,但並不適合測試那些必須看見並持續回應充滿變數的外部世界的感測器,他解釋道。「對於品質保證而言,實地駕駛測試並不是一個好的方法。」他指出,因為這種測試不可能涵蓋所有有難度的物理條件(天氣、地形、交通),這涉及無數難以預測的人類駕駛員行為。他認為,這正是基於優秀模擬的測試顯得重要的地方。

不過,Iandola認為實地測試也有其價值,「最好能夠設計一個系統,每輛自主駕駛汽車內的每個模組都能向雲端持續發送有可信度的回饋」。

這樣採用這種系統的自主駕駛汽車就不用傻傻等著發生碰撞,自己就可以展開自我檢查,他表示。當每個模組切換到人工駕駛模式時,先要問問自己是否感到有些困惑,或問問此刻有多少可信度。模組會持續發送這些資料,這類自我檢查有助於資料注解器識別最難案例,並建立品質保證模型,他解釋道。

考慮到必須在自動駕駛汽車中執行的無數測試與品質保證,Iandola也建議,這個產業需要開發一種可以分解成「多個小模組的」自主駕駛汽車平台。集中式的機器人汽車平台有其優勢,但缺點之一是無法判斷突然出現的某些軟體瑕疵或硬體問題的癥結何在。

Iandola絕對不是鼓吹汽車產業需要回到汽車內整合不同供應商提供的100多個電子控制單元(ECU)模組的時代。他只是在尋找一種更合理的方式來構建由「多個模組」組成的平台。

Magney也認為測試與驗證是個大問題。他表示,「我們正處於如何解決三級以上自主駕駛汽車的測試與驗證問題的初級階段。」

如何驗證人工智慧駕駛汽車的安全性「仍是一道未解難題」,他表示,「你必須定義好你能夠用於測試汽車工作的流程和架構,但這項工作還沒有完成。」

另外,Magney強調:「你無法證明為什麼人工智慧模組會在傳統功能安全操作條件下發生故障。你需要一個壓縮的測試與驗證過程來測試實際使用和/或模擬過程中的汽車的性能。」

4.安全和防篡改

由於無人駕駛汽車中的每個模組都由電腦控制,整個迴路中沒有人工參與,因此電腦就是司機。後座上的乘客只能任憑電腦遇到的任何軟硬體問題發生。由於迴路中沒有人類司機,攻擊也變得更加容易,因為沒有手握方向盤的人說,「嗨,發生了什麼情況?」

《連線(Wired)》上最近發表的一篇文章引用了Charlie Miller—透過網際網路連接遠端攻擊Jeep Cherokee的兩個白帽駭客之一的話。他指出,「用作計程車的無人駕駛汽車會引發更多潛在的問題。在那種情形下,每個乘客必須被認為是一種潛在的威脅。」

Miller最近離開Uber,加了入中國競爭對手滴滴——一家開始啟動自己的自主駕駛共用汽車項目的初創企業。

理論上,以乘客身份進入無人駕駛計程車的流氓駭客可以簡單地將具有網際網路連接的小設備插入汽車的OBD2介面,「向遠端攻擊者提供進入汽車最敏感系統的入口。」文章寫道。這不是一個容易避免的威脅。

另外還有一個問題。Demler補充道,「在最近舉行的會議上,有人提出了一個簡單的情形:某人舉一塊停止標牌將自動駕駛汽車逼停。自動駕駛汽車如何做才能避免被劫呢?」

5.多好才夠好?

有關自動駕駛汽車的一個永恆問題則更富哲理性而不是技術性,而且是問題的核心:多好才夠好?

Gill Pratt是麻省理工學院前教授,目前是成立一年的豐田研究所(Toyota Research)負責人。他在今年初舉辦的美國消費性電子展(CES)上的豐田新聞發佈會上討論了社會如何感知無人駕駛汽車的安全性。

Pratt表示,在美國,能夠容忍人為失誤的民眾可以接受每年35,000名交通死亡者。但他問人們能否容忍即使只有一半因機器人汽車造成的死亡數,「從情感上講,我們認為不能接受。」Pratt認為,「人們對機器造成的死亡數持零容忍態度。」

他這樣解釋Isaac Asimov的第一條機器人規則:「機器人不能傷害一個人,或者通過不動作而允許人類受到傷害。」

Shashua不同意Pratt和Asimov的觀點。他把自主駕駛汽車的安全問題看作類似於氣囊問題。「人們知道氣囊可以拯救生命,但他們同樣能殺人,」取決於汽車行駛的時間、速度或軌跡。

如果自主駕駛汽車可以將致死數量從35,000名減少到35或者350人—假設如此,Shashua相信人們將學會與機器人汽車和平共處。

Riches告訴筆者:「沒有人說自動駕駛汽車絕對可靠。然而,作為一個產業和社會,我們還沒能提出一個穩健的衡量標準,來規定什麼樣的故障率可被接受。」

Riches還補充,「與之關聯的是驗證問題。如果當我們準確地定義了一個可接受的差錯率,對於用來證明某個解決方案符合必需標準所需的驗證和模擬技術,我們也與之差距甚遠。」

在最近投稿給《IEEE智慧交通系統(IEEE Intelligent Transportation Systems)》雜誌的一篇有關自主駕駛汽車安全性的論文《自主駕駛汽車安全:一項跨學科的挑戰(Autonomous Vehicle Safety: An Interdisciplinary Challenge)》中,其兩位共同作者—卡內基梅隆大學(Carnegie Mellon University)的Philip Koopman和Edge Case Research LLC的Michael Wagner—詳細描述了驗證基於機器學習的系統面臨的挑戰。他們呼籲汽車產業和學術界執行一項「升級公認的操作方法以創建端到端的設計和驗證過程」的長期任務。他們寫道,這必須「以在成本、風險和倫理方面可接受的方式」來滿足安全因素。

20170612NT01P2 V模型。(圖片來源:Philip Koopman演講)