Deepfake 和基於性別的暴力

2017 年,記者 Samantha Cole 在 Reddit 上發現有人使用開源人工智慧 (AI) 技術,利用名人的臉製作自製的、未經同意的色情內容和性圖片。這個人稱自己為「deepfake」。 早期的深度贗品很容易被發現,因為它們有缺陷並且看起來不切實際。然而,這項技術已經變得如此複雜,以至於任何對電腦和人工智慧有一點了解並且能夠使用一台像樣的電腦的人現在都可以輕鬆地製作、分發和銷售像樣的深度偽造品。 Deepfake 所需要做的就是在 Instagram 等公共來源上找到他們想要瞄準的人的照片,以創建非常逼真的色情圖像或色情內容。 達爾豪斯舒利克法學院助理教授蘇西鄧恩 (Suzie Dunn) 表示:“性自主權確實存在問題,並且會帶來性傷害。” 烏合之眾 採訪期間。…

Recent Comments

No comments to show.

Categories