個人資料私隱專員公署昨日發布《人工智能 (AI): 個人資料保障模範框架》,涵蓋4大範疇,包括括制訂AI策略及管治架構;進行風險評估及人為監督;實行AI模型的定製與AI系統的實施及管理;以及促進與持份者的溝通及交流。個人資料私隱專員鍾麗玲今早(12日)在電台節目表示,香港企業使用AI有上升的趨勢,希望《框架》為機構使用人工智能系統時提供指引,持續監督AI系統,降低個人資料外洩的風險,特別是風險高的範疇,應加強人為監督。
鍾麗玲:AI醫療診斷屬高風險 醫護人員須監督每項流程
鍾麗玲表示,現時亦有個案顯示,員工將客戶個人資料或程式碼、原始碼輸入到AI系統,或令有關的AI系統使用有關的資料回答其他用戶問題,變相披露公司機密。因此《框架》內亦有提到如何小心應用相關資料。而《框架》亦建議根據AI系統使用的風險, 決定人為監督的程度,例如人工智能協助為疾病斷症,就屬於高風險,因而每個流程都應有醫護人員審核,減低AI出錯的機會。她續稱,如果只提供資料予客戶的人工智能系統,風險相對便較低,或可全自動化操作。
鍾麗玲:《框架》涵蓋人工智能事故應變6步驟
她又提到AI事故包括被人惡意向AI數據庫進行惡意投毒、數據庫生成錯誤、違法或涉歧視信息等,《框架》涵蓋涉及人工智能事故應變系統的6個步驟,先介定是否屬於人工智能系統的事故,監察事故是否繼續發生,繼續作出通報,防止事故擴大,作出調查以及如何復原等。她又說,如人工智能事故涉及私隱,亦有機會涉及道德問題,機構都要注意。
方保僑:人工智能生成圖像或出現版權爭拗
香港資訊科技商會榮譽會長方保僑在同一節目表示,現時常用的人工智能包括有生成式AI或客服常用的聊天機械人等,不少程式也預載了人工智能系統,產生的問題亦不少,包括個人資料有機會外洩。他舉例指,有公司分析將客戶資料放入消費模式,有機會令私隱或者數據的外洩。
方保僑指,人工智能發展迅速,現在的指引可能未能追得上相關的發展,因此需要不時修訂,需要使用人工智能系統,例如想分析資料數據等,又想避免個人資料外洩,他建議公司在輸入客戶資料時,先刪去或模糊客戶的名字,或轉換另一個模式存放入大數據。
他提到,現時有機構已制訂人工智能使用守則或監察機制,但始終受限於公司規模及科技的發展程度。
他續稱使用人工智能亦有機會產生版權問題,例如可能有不少人用人工智能繪圖,製作圖片,但製作過程中,學過或用過的圖片可能本身已有版權。另外,生成出來的插圖或圖片又是否擁有版權,人工智能系統或機械人又是否擁有相關圖像的版權,都是全球正在討論的議題。
----
由即日起至6月20日,只要參加「市民對特區政府滿意度調查」問卷,即有機會贏取Panasonic護髮風筒、Casetify充電器、大家樂$50餐飲券等豐富禮品。即點擊https://bit.ly/4csd4qL
緊貼最新最快新聞資訊,請立即下載星島頭條App:https://bit.ly/3Q29Vow