Previous Next

人功智能軟件ChatGPT近期引起社會的關注,開發人員輸入海量數據,並可用人類自然對話方式進行互動,「科技罪案警政顧問小組」認為,人工智能技術將融入生活的各個領域,但其開發和使用須予適度監管,以確保不被濫用,或被犯罪分子利用作不法用途,並提出5大規範方向。

釐清法律責任

第一項是釐清法律責任,葉雲龍表示,因人工智能協助使用者分析問題及執行指令,但假如過程中出現偏差,導致錯誤或損害,舉例無人駕駛汽車發生交通意外,責任應由人工智能系統供應商、汽車生產商或駕駛者等承擔?顧問小組建議訂立法例,指明人工智能開發商和使用者的法律責任,以保障公眾安全。

葉雲龍指出,人工智能系統演算法可能對用戶的安全帶來隱憂。
葉雲龍指出,人工智能系統演算法可能對用戶的安全帶來隱憂。
人功智能軟件ChatGPT近期引起社會的關注。
人功智能軟件ChatGPT近期引起社會的關注。
人工智能技術將融入生活的各個領域,但其開發和使用須予適度監管,以確保不被濫用。
人工智能技術將融入生活的各個領域,但其開發和使用須予適度監管,以確保不被濫用。

保護個人私穩

第二個方向是保護個人私穩,葉雲龍指出,人工智能系統演算法可能對用戶的安全帶來隱憂,例如不法分子可以預計用戶行蹤、惡意結識用戶進行詐騙等。現時《個人資料(私隱)條例》並沒有覆蓋個人資料以外的個人私隱資訊。顧問小組建議為資訊系統(包括物聯網裝置)收集、保留、保護、修正、刪除個人私隱資訊訂立監管框架,防止人工智能侵犯個人私隱。

確保公平資料來源

第三是確保公平資料來源,葉雲龍表示,以ChatGPT為例,主要以訓練英語場景為主,資料庫可能偏向取材自英語為母語地區的內容,上述情況或會導致人工智能回應西方國家以外地區的問題時出現因文化差距,產生對種族、宗教或性別的歧視或偏差,顧問小組建議為人工智能開發商制訂指引,加強人工智能系統演算法的透明度和解釋性。

符合倫理標準

第四是符合倫理標準,葉雲龍稱,不法分子可利用人工智能系統降低犯罪成本,如撰寫假新聞影響選舉公平性、深度偽造語音和圖像進行詐騙、撰寫惡意程式進行網絡攻擊等。顧問小組建議政府應儘快就有關方面展開研究,例如要求人工智能系統產生的文字、聲音、圖像、影像易於被識別為由人工智能產生,以免公眾產生混淆,墮入騙案。
 

保障知識產權

第五是保障知識產權,顧問小組建議為業界訂立公平使用原則和版權收費機制,在適當的位置列名資料出處。多國已就人工智能實行規管,例如意大利率先宣布禁止使用ChatGPT、歐盟草擬多時的《人工智能法案》亦正進行審議,訂立風險等級規管人工智能產品與服務的應用、國家互聯網信息辦公室日前也發布了《生成式人工智能服務管理辦法(徵求意見稿)》,引導業界健康發展有關技術。

記者:鄭華坤

---

《星島頭條》APP經已推出最新版本,請立即更新,瀏覽更精彩內容:https://bit.ly/3yLrgYZ