Teknoloji

MIT’nin yeni PhotoGuard’ı, fotoğraflarınızı istenmeyen AI düzenlemelerinden korur

Dall-EVe kararlı difüzyon bu sadece başlangıçtı. Üretken AI sistemleri çoğaldıkça ve şirketler tekliflerini rakiplerinden farklı kılmak için çalıştıkça, Shutterstock ve Adobe gibi şirketlerin liderliğindeki çevrimiçi sohbet robotları, görüntüleri düzenlemenin yanı sıra yeni görüntüler oluşturma gücü kazanıyor. Bununla birlikte, bu yapay zeka tabanlı yeni yetenekler, mevcut çevrimiçi çizimlerin ve görüntülerin yetkisiz olarak değiştirilmesi veya doğrudan çalınması gibi tanıdık tuzakları da beraberinde getiriyor. . Damgalama teknikleri hırsızlık risklerini azaltmaya yardımcı olsa da, MİT CSAILtarafından geliştirilen yeni Fotoğraf Koruması” tekniği, yetkisiz değişikliklerin önlenmesine yardımcı olabilir.

PhotoGuard nasıl çalışır?

PhotoGuard, yapay zekanın görüntünün ne olduğunu anlama yeteneğini bozacak şekilde bir görüntüdeki seçili pikselleri değiştirerek çalışır. Araştırma ekibi buna ” usulsüzlükler ” insan gözü tarafından görülmez, ancak makineler tarafından kolayca okunabilir. Bu yapıları ortaya çıkaran kodlayıcıBaskın sistemi, algoritmik modelin bir manzaradaki her pikselin konumunu ve rengini tanımlamaya yönelik karmaşık süreci olan ve esasen yapay zekanın neye baktığını anlamasını engelleyen hedef görüntünün örtülü temsilini amaçlar.

Daha gelişmiş ve hesaplama açısından ağır ” difüzyon Saldırı yöntemi, bir manzarayı yapay zekanın gözünde farklı bir manzara olarak kamufle eder. Bu sistem bir hedef manzarası tanımlar ve manzaradaki düzensizlikleri amacına uyacak şekilde optimize eder. Yapay bir zekanın bu katı görüntüler üzerinde yapmaya çalıştığı rastgele bir düzenleme, geçersiz “hedef” görüntülere uygulanarak gerçekçi olmayan bir görüntü ortaya çıkıyor.

MIT doktora öğrencisi ve çalışmanın baş yazarı hadi selmanEngadget ile yapılan bir görüşmede, “ Kodlayıcı saldırısı, modelin giriş görüntüsünün (düzenlenecek) başka bir görüntü (örn. gri bir görüntü) olduğunu düşünmesine neden olur.der ve devam eder: “ Bir difüzyon saldırısı, difüzyon modelini bazı hedef görüntülerde (gri veya rastgele bir görüntü de olabilir) ayarlamalar yapmaya zorlar.

Salman yaptığı açıklamada şunları söyledi: Model geliştiricileri, sosyal medya platformlarını ve politika yapıcıları içeren işbirlikçi bir yaklaşım, yetkisiz görüntü manipülasyonuna karşı güçlü bir savunma sunar. Bu acil konu üzerinde çalışmak bugün büyük önem taşımaktadır.”diyor ve sözleri” Bu çözüme katkıda bulunmaktan mutluluk duysam da, bu korumayı pratik hale getirmek için daha fazla çalışma gerekiyor. Bu modelleri geliştiren şirketlerin, bu yapay zeka araçlarının oluşturduğu potansiyel tehditlere karşı güçlü karşı önlemler tasarlamaya yatırım yapması gerekiyor.”diye bitiriyor.

karpuzluajans.xyz

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

-
Başa dön tuşu