Fotoğraf Haber

MIT’nin ‘PhotoGuard’ı görüntülerinizi kötü niyetli yapay zeka düzenlemelerinden koruyor!

Yayınlandı -

/

Dall-E ve Stable Diffusion sadece başlangıçtı. Üretken yapay zeka sistemleri çoğaldıkça ve şirketler sunduklarını rakiplerininkinden farklılaştırmaya çalıştıkça, Shutterstock ve Adobe’nin öncülük ettiği internet üzerindeki sohbet robotları, görüntüleri oluşturmanın yanı sıra düzenleme gücü de kazanıyor.

Ancak yapay zeka destekli bu yeni yetenekler, mevcut çevrimiçi sanat eserlerinin ve görsellerin izinsiz manipülasyonu veya düpedüz çalınması gibi tanıdık tuzakları da beraberinde getiriyor. Filigran teknikleri ikincisini azaltmaya yardımcı olabilirken, MIT CSAIL tarafından geliştirilen yeni “PhotoGuard” tekniği ilkini önlemeye yardımcı olabilir.

PhotoGuard, bir görüntüdeki belirli pikselleri, bir yapay zekanın görüntünün ne olduğunu anlama yeteneğini bozacak şekilde değiştirerek çalışır. Araştırma ekibinin deyimiyle bu “pertürbasyonlar” insan gözüyle görülemez ancak makineler tarafından kolayca okunabilir. Bu artefaktları ortaya çıkaran “kodlayıcı” saldırı yöntemi, algoritmik modelin hedef görüntünün gizli temsilini (bir görüntüdeki her pikselin konumunu ve rengini tanımlayan karmaşık matematik) hedef alıyor ve esasen YZ’nin neye baktığını anlamasını engelliyor.

Daha gelişmiş ve hesaplama açısından yoğun olan “difüzyon” saldırı yöntemi, bir görüntüyü yapay zekanın gözünde farklı bir görüntü olarak kamufle eder. Bir hedef görüntü tanımlayacak ve kendi görüntüsündeki pertürbasyonları hedefine benzeyecek şekilde optimize edecektir. Yapay zekanın bu “aşılanmış” görüntüler üzerinde yapmaya çalıştığı herhangi bir düzenleme, sahte “hedef” görüntülere uygulanarak gerçekçi olmayan bir görüntü elde edilmesine neden olur.

“MIT doktora öğrencisi ve makalenin başyazarı Hadi Salman Engadget’a yaptığı açıklamada, “Kodlayıcı saldırısı, modelin girdi görüntüsünün (düzenlenecek) başka bir görüntü (örneğin gri bir görüntü) olduğunu düşünmesini sağlıyor” dedi. “Oysa difüzyon saldırısı, difüzyon modelini bazı hedef görüntülere (gri veya rastgele bir görüntü de olabilir) yönelik düzenlemeler yapmaya zorlar.” Bu teknik kusursuz değildir, kötü niyetli aktörler dijital gürültü ekleyerek, resmi kırparak ya da ters çevirerek korunan görüntüyü tersine mühendisliğe tabi tutabilirler.

“Model geliştiricileri, sosyal medya platformları ve politika yapıcıları içeren işbirlikçi bir yaklaşım, yetkisiz görüntü manipülasyonuna karşı sağlam bir savunma sunuyor. Bu acil sorun üzerinde çalışmak bugün büyük önem taşıyor,” dedi Salman. “Bu çözüme katkıda bulunmaktan memnuniyet duymakla birlikte, bu korumayı pratik hale getirmek için çok çalışmak gerekiyor. Bu modelleri geliştiren şirketlerin, bu yapay zeka araçlarının yarattığı olası tehditlere karşı sağlam bağışıklıklar geliştirmek için yatırım yapmaları gerekiyor.”

Yeni Kitap / D&R

Trend

Exit mobile version