白宮今天發布了一份概述了幾家人工智慧公司為遏制基於圖像的性虐待的創作和傳播而做出的承諾。參與的企業已經制定了他們正在採取的措施,以防止他們的平台被用來產生成人和兒童性虐待材料(CSAM)的未經同意的親密圖像(NCII)。
具體來說,Adobe、Anthropic、Cohere、Common Crawl、微軟和 OpenAI 表示他們將:
除了 Common Crawl 之外,上述所有內容都同意它們是:
-
“在開發過程中納入反饋循環和迭代壓力測試策略,以防止人工智慧模型輸出基於圖像的性虐待”
-
並在適當的時候「從人工智慧訓練資料集中刪除裸體圖像」。
這是一項自願承諾,因此今天的聲明不會因未能履行這些承諾而產生任何新的可操作步驟或後果。但解決這一嚴重問題的真誠努力仍然值得讚揚。蘋果、亞馬遜、谷歌和 Meta 缺席了今天的白宮發布會。
許多大型科技和人工智慧公司一直在努力讓 NCII 的受害者更容易阻止 Deepfake 影像和影片的傳播,而這與聯邦政府的努力無關。 StopNCII 已經制定了一種全面的方法來清理這些內容,而其他企業正在推出專有工具來報告其平台上人工智慧生成的基於圖像的性虐待行為。
如果您認為自己是未經同意的親密影像共享的受害者,您可以向 StopNCII 立案 ;如果您未滿 18 歲,您可以向 NCMEC 提交報告 。