Jumat, September 20, 2024
Teknologi ‘PhotoGuard’ MIT melindungi gambar Anda dari pengeditan AI yang berbahaya

‘PhotoGuard’ MIT melindungi gambar Anda dari pengeditan AI yang berbahaya

2
0

IndonesiaDiscover –

Dall-E dan Stable Diffusion hanyalah permulaan. Saat sistem AI generatif berkembang biak dan perusahaan bekerja untuk membedakan penawaran mereka dari pesaing mereka, chatbot di internet mendapatkan kekuatan untuk mengedit gambar — serta membuatnya — dengan orang-orang seperti Shutterstock dan Adobe yang memimpin. Namun dengan kemampuan baru yang diberdayakan oleh AI itu muncul perangkap yang sudah tidak asing lagi, seperti manipulasi tanpa izin, atau pencurian langsung, karya seni dan gambar online yang ada. Teknik watermarking dapat membantu mengurangi yang terakhir, sedangkan teknik “PhotoGuard” baru yang dikembangkan oleh MIT CSAIL dapat membantu mencegah yang pertama.

PhotoGuard bekerja dengan mengubah piksel tertentu dalam gambar sedemikian rupa sehingga akan mengganggu kemampuan AI untuk memahami gambar tersebut. “Gangguan” itu, seperti yang dirujuk oleh tim peneliti, tidak terlihat oleh mata manusia tetapi mudah dibaca oleh mesin. Metode serangan “encoder” untuk memperkenalkan artefak ini menargetkan representasi laten model algoritmik dari gambar target — matematika kompleks yang menjelaskan posisi dan warna setiap piksel dalam gambar — pada dasarnya mencegah AI memahami apa yang dilihatnya.

Metode serangan “difusi” yang lebih maju, dan intensif komputasi, menyamarkan gambar sebagai gambar yang berbeda di mata AI. Ini akan menentukan gambar target dan mengoptimalkan gangguan pada gambarnya agar menyerupai targetnya. Pengeditan apa pun yang coba dilakukan oleh AI pada gambar yang “diimunisasi” ini akan diterapkan pada gambar “target” palsu yang menghasilkan gambar yang dihasilkan tampak tidak realistis.

“Serangan encoder membuat model berpikir bahwa gambar masukan (yang akan diedit) adalah beberapa gambar lain (misalnya gambar abu-abu),” kata mahasiswa doktoral MIT dan penulis utama makalah tersebut, Hadi Salman, kepada Engadget.”Sedangkan serangan difusi memaksa model difusi untuk mengedit beberapa gambar target (yang juga bisa berupa gambar abu-abu atau acak).”

“Pendekatan kolaboratif yang melibatkan pengembang model, platform media sosial, dan pembuat kebijakan menghadirkan pertahanan yang kuat terhadap manipulasi gambar yang tidak sah. Mengerjakan masalah mendesak ini sangat penting hari ini,” kata Salman dalam rilisnya. “Dan meskipun saya senang berkontribusi untuk solusi ini, banyak pekerjaan yang diperlukan untuk membuat perlindungan ini praktis. Perusahaan yang mengembangkan model ini perlu berinvestasi dalam rekayasa imunisasi yang kuat terhadap kemungkinan ancaman yang ditimbulkan oleh alat AI ini.”

Tinggalkan Balasan