交大人共享知識與情感交流的平台

林宏文專欄
自駕車「影像辨識」有盲點?──陽明交大資工系副教授邱維辰專訪

台灣近年來配備電腦輔助系統的電動車愈來愈多,但也發生多起因電腦系統未能即時辨識出施工中的防撞緩衝車,而引發嚴重的連環車禍事件。專長電腦視覺領域的陽明交通大學資工系副教授邱維辰指出,當滿街都是特斯拉,但台灣的防撞車在國外自駕車訓練數據庫中可能很少出現,或形狀完全不同,已成為台灣自駕車的最大盲點。

以下是第一人專訪的節錄:

現在的感測系統主要還是立基於影像的辨識,有些會搭配來自於雷達等資訊,去理解周圍環境發生了什麼事情。但是目前影像辨識沒有辦法確保,問題就來機器人深度學習,車感攝影機所拍到的圖片,怎麼去窮舉日常生活中所有的問題?這是很困難的。

但機器學會辨識背後可以分成幾個主要的成分,第一個他會從圖片裡面去擷取所謂的特徵,比如跟背景有些特殊的組合,再根據特徵或特殊組合之下,去判斷是否為車子。

以特斯拉為例,軟體每隔一段時間就會更新,那當中沒有機會讓變得更在地化或客製化?我覺得這是有可能發生的,但是我們目前沒有辦法確定特斯拉是不是有在做這件事情,或是影像系統有沒有正在發生這件事情。還要注意的是,但是當越來越客製化、在地化的時候,會不會慢慢衍生出過去的紀錄被洗掉掩蓋的問題?比如一台車持續在鄉村開,他慢慢去學習整個鄉村的環境、車子狀況等,有一天開進城市的時候,他是否忘記過去可以辨識的東西?

因此重點在於「影像識別的學習機制是什麼」,簡單的比喻就是,電腦或者影像系統,他並不是把看過的所有東西都背下來,他會想辦法做一些歸納跟整理。有可能歸納結果會不泛用於不同環境。

我們一般所謂的自駕系統其實是「輔助型系統」。當然技術慢慢的往前進,我們開始希望他能幫駕駛注意到更多的細節,甚至是可以接手開一段道路,更後來會希望直接上車設定目的地由車子來開車抵達,,這當然是有程度上的差異。自動駕駛其實就是把枯燥且重複性的工作自動化。

大家可能會覺得台灣相對歐美國家,在開發系統上的能量會有些不足,因為台灣硬體發展表現是比較好的,但是我覺得可以這麼想:「這些系統本身都是以軟體為主」,比如Facebook其實一開始並不需要很大的資源,而當找到一個好的立基點或好的發展,就有辦法去敲動整個改革。