AI視覺辨識漏洞 自動駕駛須多重保險

  隨着物聯網將進入5G年代,人工智能機器的視覺辨識漏洞卻愈揭愈多,無人機、自動駕駛汽車及智能機械人的應用存在安全隱患。學者分析,科研界仍未完全掌握人工智能(AI)辨認機制,其中以網格狀物件的影像處理能力較弱,自動駕駛日後如獲應用,須加入官方認證,確保系統具備足夠辨識能力,並配合衞星定位、射頻識別等技術互相監察,減低出錯機會。

  美國麻省理工學院計算機科學家Anish Athalye的研究團隊,前年研發多個「對抗影像」,企圖欺騙AI的辨識系統,並成功令AI系統將一隻3D打印的海龜誤認為步槍。他其後更利用調整物件紋理及顏色等方法,製造約二百件令AI錯誤辨識的立體打印物件。Athalye認為,隨着現實世界鋪設的智能系統愈來愈多,「機器幻覺」將為智能機械人、無人機及自動駕駛汽車等依賴機器視覺的系統帶來隱患。

  外國研究人員去年發現,只要在公路路牌上貼上一兩張貼紙,AI就有可能受騙,「停車」被誤認作「速度限制」。

  深度學習的樣本數量及訓練多寡,影響AI機器視覺的辨識能力及準繩度。中大計算機科學與工程學系教授黃田津解釋,作為統計工具,AI依賴大量數據進行深度學習訓練,「當AI分析路牌時,理論上有充足圖像樣本,包括被物件遮擋、有瑕疵等的路牌圖像,便可減低誤差出現。」

機器辨識系統也會「受騙」

  黃田津形容AI的深度學習結構有如一個多層次「黑盒」:「AI運用機器視覺辨認出某些特徵,通常會分析圖像的低頻、光暗及形狀信號等,但暫時只有粗略解釋。」他續指,AI仍有一定局限,例如難以辨認出網格狀物件等規律,「以斑馬線為例,AI作出機器視覺分析時,難以分辨出斑馬線的間距,只可靠顏色、形狀等特徵作推算。」

  應科院首席技術總監許志光指出,不可忽略機器視覺辨識盲點,目前科研界除了增加AI辨識能力,亦可通過多個系統同時運作的方式,互相監察,避免部份系統被黑客入侵或數據受干擾後,帶來嚴重後果。

  他以飛機的自動駕駛系統為例,內裏除了有多個探測天氣及環境的器材,亦有互相監察的系統,以確認飛機不同組件是否正常運作。

  港大工程學院助理院長霍偉棟認同,單靠AI視覺識別系統,現時仍難免出現誤差,甚至被黑客誤導,故須通過無線技術、衞星定位,甚至射頻識別技術等配合,以完善智慧交通系統,「新加坡的電子道路收費系統早已應用射頻識別,不需靠鏡頭以辨認途經的車輛;內地一些智能停車場,除通過鏡頭辨識車牌,亦會用到紅外線感測技術。」

  被稱為5G「黃金頻譜」的三點五吉赫頻帶前日完成拍賣,為電訊商明年提供商用5G服務邁進一大步。許志光認為,隨着5G發展,未來一個智能系統隨時在同一時間連接過百個感應器,衍生系統管理問題,因此在發展AI技術的同時,亦要加強軟件綜合處理能力,確保系統正常運作。


hd