Deepfake 和基於性別的暴力

Deepfake 和基於性別的暴力


2017 年,記者 Samantha Cole 在 Reddit 上發現有人使用開源人工智慧 (AI) 技術,利用名人的臉製作自製的、未經同意的色情內容和性圖片。這個人稱自己為「deepfake」。

早期的深度贗品很容易被發現,因為它們有缺陷並且看起來不切實際。然而,這項技術已經變得如此複雜,以至於任何對電腦和人工智慧有一點了解並且能夠使用一台像樣的電腦的人現在都可以輕鬆地製作、分發和銷售像樣的深度偽造品。

Deepfake 所需要做的就是在 Instagram 等公共來源上找到他們想要瞄準的人的照片,以創建非常逼真的色情圖像或色情內容。

達爾豪斯舒利克法學院助理教授蘇西鄧恩 (Suzie Dunn) 表示:“性自主權確實存在問題,並且會帶來性傷害。” 烏合之眾 採訪期間。

鄧恩接著說,“現在,你可以讓一些人真正以非常嚴重的方式對人們進行性侵犯,甚至不需要與他們接觸。”

一種新形式的性別暴力

性化深度假貨的創造本身就是對性自主權的侵犯,性自主權是個人在不受干擾的情況下對自己的身體和性行為做出決定的權利。

在網路上發布深度假貨,同時聲稱它們是真實的性內容,相當於未經同意傳播親密圖像。那是因為由此產生的公共傷害是相同的。

Deepfake 和基於性別的暴力

Sensity AI 報告《2019 年 Deepfakes 現狀、威脅和影響》發現,96% 的 Deepfakes 用於創建未經同意的色情內容。在這些 Deepfake 中,99% 都是女性圖像。

這是最新形式的性別暴力。

「在加拿大和全球範圍內,性深度假貨的危害正在被認識。當這些深度假貨開始從 Reddit 網站上出現時,許多人將它們發佈在 Pornhub 和其他地方。很快,包括Pornhub 在內的大多數社交媒體公司都制定了政策,規定此類內容是不允許的,我們將其與其他未經同意的圖像規則歸為同一類別,即您不能在我們的網站上發布未經同意的內容,」鄧恩說。

澳洲人諾埃爾馬丁(Noel Martin)成為在網路上找到她的人的目標。他們開始製作假冒的 Photoshop 色情片,並最終製作了馬丁的深度偽造品。

馬丁主張進行法律改革,包括在澳洲的非自願圖像法中添加「更改圖像」一詞。包含經過修改的圖像意味著任何未經同意分享性圖像(無論是真像還是深度偽造)的人都將受到法律的約束。

加拿大刑法不包含該條款。因此,如果未經您同意而發布色情圖片,那麼實際上必須是您的裸體才能提出指控。

不列顛哥倫比亞省、艾伯塔省、薩斯喀徹溫省、新斯科細亞省以及紐芬蘭和拉布拉多省的民法確實包含更改的圖像,提供了起訴損害和損害的選項。

在沒有這種選擇的省份和地區,有人仍然可以提起民事訴訟,但這將是一個新穎的法律論點,意味著此類案件尚屬首次,換句話說,這是一個開創先例的案件。

特定的女性群體更容易被變成深度假貨,包括記者、遊戲玩家和使用視訊直播服務 Twitch 的人。

Deepfakes 給受害者帶來了真正的後果

「一旦深度假貨與你的名字相關聯並且可以透過谷歌搜索,即使人們確實知道它是假的,它也會影響人們對你的看法,」鄧恩解釋道。

Deepfake 可能會產生重大的經濟影響,特別是當勞動法薄弱且無法保護通過該內容的目標群體時。

其影響可能會導致女性自我隔離或遭受心理健康問題。女性可能會從網路上刪除自己的照片。然而,越來越多的女性職業要求她們上網並公開露面,因此選擇刪除這些圖像可能會影響她們的收入和職業發展。

「女性確實喪失了性自主權。而且,當我們失去性自主權時,人們會有各種不同的反應。有些人可能會覺得這只是煩惱,但對其他人來說可能是毀滅性的,毀掉生活,」鄧恩說。

然而,鄧恩表示,法律正在取得進展,大多數法律回應都是針對未經同意傳播色情內容的問題。

一些色情網站針對誰可以發佈內容以及可以發布什麼內容制定了內容審核規則。然而,在 Meta、Instagram 和 TikTok 上,儘管有明確的內容審核規則,但並非總是執行。

「當我談論色情內容時,我指的是專門為公眾觀看而製作的內容。當我談論性虐待材料或基於圖像的虐待時,這是放置在色情網站上的內容,但我認為我們不應該將其歸類為色情內容。這是濫用材料,」鄧恩解釋道。

當基於圖像的性虐待內容上傳到色情網站時,通常需要檢查許多框,包括年齡和同意驗證。一旦所有的方框都被選中,內容就會被公開。

然而,鄧恩指出,不可能透過觀看影片來知道它是否是雙方同意的。

這仍然是一項巨大的挑戰,需要圍繞色情網站的義務以及他們計劃如何確保所有相關人員都同意上傳資料進行持續對話。

鄧恩表示,除非系統中內建了強而有力的道德規範,否則網站可以輕鬆上傳基於圖像的性侵犯內容。

鄧恩也指出,隨著便利暴力的發展,社會和法律體系需要為科技便利的虐待創造一種語言。在對其進行分類以及識別和解決其造成的危害之前,必須對其進行命名。

目前,加拿大《刑法》不包括修改過的圖像。然而,鄧恩表示,將他們納入引發了一場關於犯罪和違反犯罪行為之間界線的大型討論。影像必須非常逼真嗎?這個定義是否應該擴展到包括個人的性愛故事和漫畫?

這些複雜的問題只能透過刑事和民事系統的發展來解決,這些系統專注於技術驅動的性別暴力,例如深度偽造品。

為了使變革有意義,需要透過改進社群媒體公司和色情網站的法規來加強這些變革,以確保禁止色情圖片或色情內容的規則到位。還需要製定有關如何處理此類內容發佈時的情況的規則,以確保及時將其刪除。

鄧恩警告說,需要區分網路上自願的性表達和性虐待。這很重要,因為有時當人們努力消除虐待性的內容時,他們想要清除所有的性內容。

「性表達內容在我們的社會中扮演著非常重要的角色。因此,當我們考慮改進網路上色情內容的取得方式時,我認為我們必須小心,不要把嬰兒和洗澡水一起倒掉。我們希望身體上有正向健康的性表達,這與性侵犯不同。同樣,我們可以在數位空間(例如有關性健康資訊的兒童網站)中進行積極、健康的性表達,這些資訊可能會被掃蕩。

多倫多 Barbra Schlifer 紀念診所的律師兼執行董事 Deepa Mattoo 告訴我們 烏合之眾,「我們還沒有看到案件出現,但當案件確實出現時,這將是一個挑戰。總體而言,網路暴力正在上升,人工智慧無疑發揮了重要作用。

馬圖認為,對於濫用線上內容,不應該有不同的法律測試標準。如果是人工智慧生成並出於性騷擾或精神騷擾此人的相同目的而進行的;攻擊他們的聲譽;或勒索他們,那麼這是犯罪行為,應被視為性暴力。

「這是強制和控制模式的一部分,應該更加認真地對待,因為該行為的意圖表明你計劃了它,並且你致力於使用該技術的程度。因此,從這個角度來看,它應該比其他犯罪行為更嚴肅地對待,」馬圖說。

馬圖認為,當有人故意獲取圖像,然後將其色情化以試圖傷害受害者時,不應該有任何藉口。

馬圖指出,科學已經證實,性暴力造成的創傷可能會影響受害者的餘生。

馬圖希望看到監獄系統成為一個教育系統,因為在她看來,將某人關在狹小的空間內並限制他們的能力並不足以真正改變他們。

「這是在未經你同意的情況下發生的事情,你的代理商被剝奪了。所以,心理上的傷害要深得多。真正需要的是社會的變革,以便這些犯罪行為停止發生,」馬圖說。

More From Author

Deepfake 和基於性別的暴力

溫哥華市致最低工資工人:讓他們吃減價!

Deepfake 和基於性別的暴力

UCP 將宣布廢除 AHS 的計劃

Leave a Reply

Your email address will not be published. Required fields are marked *

Recent Comments

No comments to show.

Categories