撲火無效 引4,500萬點擊 Taylor AI慾照瘋傳 驚動白宮
美國天后Taylor Swift被網民以人工智能(AI)製作的色情圖片於上周瘋傳,令她大為震怒,考慮採取法律行動,各社交網前日撲火禁止搜尋她的名字,事件亦驚動白宮回應!
AI繪圖技術發展神速,現在已經可以製作幾可亂真的虛假照片。有網民日前製作Taylor的AI鹹相,其中包括她在美式足球員男友Travis Kelce賽事中裸露身體,進行淫穢行為。圖片經上載後即在社交網瘋傳,雖然Taylor粉絲呼籲網民自律,不要分享圖片,可是未見成效,社交網官方亦反應緩慢,在17小時後才刪除圖片,但當時已有4,500萬點擊率,相關照片亦在其他戶口繼續瘋傳。
社交網禁搜尋其名字
知情者透露Taylor非常憤怒,考慮採取法律行動。該社交網前日起禁止搜尋Taylor Swift的名字,顯示「帖子現在無法載入,請再嘗試。」在另一社交網,假如輸入「Taylor Swift AI」,更會顯示警告:「你所輸入的詞語可能與危險組織與人物有關,在這不被允許。」社交網官方發出聲明,指目前正密切關注事件,確保違規內容會立即被處理及刪除。
事件更驚動白宮,白宮公關秘書Karine Jean-Pierre於記者會回應記者提問,指AI鹹相事件「令人擔憂」:「國會當然應該立法,這是應付部分這些問題的方法。」她又表示:「社交網站對維持自己的規矩有重要責任,阻止這些材料流通。我們知道執法不力,對女人與女孩影響特別大,很遺憾地,她們很大程度上是網上滋擾與欺凌的目標。」
人人做記者
爆料方法 :
爆料熱線:
(852) 3600 3600
傳 真:
(852) 3600 8800
SMS:
(852) 6500 6500