近日,香港大學一名法律系男學生被指控以免費網上 AI 軟件,在未獲受當事人同意下,將多位女性的照片生成裸露色情照片。按受害人表示,涉事的合成照及素材照片多達700張、受害女性為20至30人,事件引起各界關注。
7月12日,Instagram 帳號「hku.nfolderincident」以三名受害者的名義發表事件的簡述,指控該男學生在今年2月被發現手提電腦存有多張女性的裸露色情照片。他承認以受害人的人像照片為素材,以網上免費 AI 軟件生成色情照,素材照片主要截圖自受害人的社交媒體。
受害人向校方表達不滿,但港大教職員引述律師指男生的行為「未觸及紀律委員會可處理的任何罪行」。另一教職員則提議在男學生的個人學生檔案存檔警告信作內部參考,並作口頭懲戒。校方最終僅以存檔警告信和要求道歉處理事件。
目前,香港現行法例只規管未經同意而發布的 AI 生成私密影像,而生成行為本身則未被刑事化。受害者指,她們未能透過香港刑事法律體系令該男生得以懲處。