suria

Tersebar video AI papar aksi tak senonoh, Twice bakal ambil tindakan tegas

Agensi Twice bakal mengambil tindakan undang-udang terhadap penyebar video.

PENYEBARAN video 'deepfake' yang menggunakan wajah dan suara selebriti terkenal menerusi tekonologi artifial intelligence (AI) atau kecerdasan buatan semakin berleluasa di Korea Selatan.

Lebih parah, kandungan yang dijadikan sebagai bahan tidak senonoh kemudiannya dimuat naik di platform media sosial untuk tatapan ramai.

Terbaharu, kumpulan Twice dilaporkan antara mangsa penyebaran video tersebut apabila wajah mereka disunting dengan memaparkan aksi seksual.

Copy of Untitled - 2024-09-02T123140.564

Twice antara salah satu mangsa yang terkesan.

Memandang serius perkara itu, agensi Twice iaitu JYP Entertaiment menegaskan bakal mengambil tindakan terhadap pihak tidak bertanggungjawab.

Jelasnya, perkara ini boleh diklasifikasikan sebagai janayah seksual yang menjejaskan reputasi artis mereka.

"Kami sangat prihatin dengan penyebaran video deepfake baru-baru ini melibatkan artis kami iaitu Twice.

ARTIKEL BERKAITAN: Beraninya Mina (Twice) tampil fesyen tayang seluar dalam, peminat tegur terlalu seksi

ARTIKEL BERKAITAN: Jihyo (Twice) pilih atlet Olimpik sebagai kekasih, kongsi minat dalam sukan

"Tindakan ini telah pun melanggar undang-undang secara terang-terangan dan kami sedang mengumpul bukti untuk mengambil tindakan undang-undang.

"Kami tak akan berdiam dan akan mencari pelakunya sampai ke lubang cacing," jelasnya.

Sekadar info, deepfake merupakan kandungan video yang disungting menggunakan teknologi AI dengan mamaparkan wajah mangsa melakukakan sebarang aksi secara realistik.

Jadilah sebahagian daripada geng mStar! Follow kami di Telegram, Twitter, TikTok, Facebook, Instagram dan YouTube

TONTON VIDEO PILIHAN!

Artikel Lain