Erişilebilirlik

Yapay Zeka ile Büyüyen Sorun: Deepfake Porno


Yapay zeka ile oluşturulan görseller, sanat üretmek, sanal deneme odalarında kıyafet denemek ya da reklam kampanyaları tasarlamaya yardımcı olmak için kullanılabiliyor. Ancak uzmanlar, kolayca erişilebilen bu araçların karanlık tarafının, öncelikle kadınlara zarar veren bir şeyi daha da kötüleştirebileceğinden korkuyor; rıza dışı "deepfake" pornografiyi.

"Deepfake" terimi, yapay zeka ya da makine öğrenimi ile dijital olarak yaratılmış ya da değiştirilmiş, gayet gerçek sanılabilinen video ve görüntüler için kullanılıyor.

Bu teknoloji kullanılarak yaratılan porno görüntüler, ilk olarak birkaç yıl önce sosyal medya platformu Reddit’te bir kullanıcının, kadın ünlülerin yüzlerini, yetişkin filmlerinin oyuncularının omuzlarına yerleştiren klipler paylaşmasıyla, internette yayılmaya başladı.

O zamandan bu yana ‘deepfake’ yaratıcıları benzer video ve görüntüleri, internet fenomenlerini, gazetecileri ve kamuoyu önündeki başka kişileri hedef alarak yaydı.

Çok sayıda internet sitesinde binlerce video mevcut, hatta bazı siteler kullanıcılara, istedikleri görüntüleri yaratma fırsatı sunuyor. Yani aslında herkesin, istediği kişiyi rızası olmadan cinsel fantezilere dönüştürmesine veya teknolojiyi eski partnerlerine zarar vermek için kullanmasına izin veriyor.

Uzmanlar, sofistike ve görsel olarak cazip ‘deepfake'ler yapmak kolaylaştıkça sorunun büyüdüğünü söylüyor. Üstelik bu sorun, internetten milyarlarca görüntü üzerine eğitilen ve mevcut verileri kullanarak yeni içerikler üreten yapay zeka araçlarının geliştirilmesiyle, daha da kötüleşebilir.

Teknoloji kaynaklı istismar konusunda eğitimler veren EndTAB'ın kurucusu Adam Dodge, "Gerçek şu ki, teknoloji yaygınlaşmaya, gelişmeye devam edecek ve bir düğmeye basmak kadar kolay hale gelmeyi sürdürecek. Bu gerçekleştiği sürece, insanlar da şüphesiz bu teknolojiyi başkalarına zarar vermek için kötüye kullanacak; bunu da özellikle çevrimiçi cinsel şiddet, deepfake pornografi ve sahte çıplak görüntüler yoluyla yapacaklar" dedi.

Avustralya'nın Perth kentinden Noelle Martin bu gerçeği deneyimleyenlerden. 28 yaşındaki kadın 10 yıl önce bir gün meraktan Google'da kendi görüntüsünü arattığında deepfake pornosunu bulmuş.

Martin, sahte görüntüleri ya da daha sonra bulduğu cinsel ilişkiye girdiği videoları kimin yarattığını hala bilmediğini söylüyor. Birinin muhtemelen sosyal medya sayfasında ya da başka bir yerde yayınlanmış bir fotoğrafı alıp üzerinde oynayarak pornoya dönüştürdüğünden şüpheleniyor.

Dehşete kapılan Martin, görüntülerin kaldırılması için birkaç yıl boyunca farklı internet siteleriyle iletişime geçti. Bazıları yanıt vermedi. Bazıları ise kaldırdı ama Martin kısa süre sonra tekrar yayında buldu.

"Bu her zaman orada olacak bir şey. Sanki sonsuza dek sizi mahvetmiş gibi" diyen Martin, bundan kurtulmanın bir yolu olmadığını söylüyor.

Martin, ne kadar çok konuşursa sorunun o kadar arttığını da söyledi. Hatta bazıları, giyim tarzının ve sosyal medyada paylaştığı görüntülerin tacize katkıda bulunduğunu söyleyerek, görüntüleri yaratanlar yerine Martin’i suçlamış oldular.

Sonunda Martin dikkatini yasalara yöneltti ve Avustralya'da, çevrimiçi güvenlik düzenleyicilerinden gelen bu tür içeriklere yönelik kaldırma bildirimlerine uymayan şirketlere 555 bin Avustralya doları (370 bin 706 ABD doları) ceza verilmesini öngören ulusal bir yasa için çalıştı.

Ancak bazen dünyanın öbür ucunda üretilen içerikler için ülkelerin kendi yasaları varken, interneti yönetmek neredeyse imkansız. Halen Batı Avustralya Üniversitesi'nde avukat ve hukuk araştırmacısı olan Martin, sorunun bir tür küresel çözümle kontrol altına alınması gerektiğine inandığını söylüyor.

Bu arada bazı yapay zeka modelleri, müstehcen görüntülere erişimi zaten engellediklerini söylüyor.

OpenAI, görüntü oluşturma aracı DALL-E'yi eğitmek için kullanılan verilerden müstehcen içeriği kaldırdığını ve böylece kullanıcıların bu tür görüntüler oluşturma kabiliyetini sınırladığını söylüyor.

Şirket ayrıca talepleri filtreliyor ve kullanıcıların ünlülerin ve önde gelen politikacıların yapay zeka görüntülerini oluşturmasını engellediğini söylüyor.

Bir başka yapay zeka modeli olan Midjourney ise belirli anahtar kelimelerin kullanımını engelliyor ve kullanıcıları sorunlu görselleri moderatörlere bildirmeye teşvik ediyor.

Bu arada, Stability AI adlı girişim Kasım ayında, Stable Diffusion adlı görüntü oluşturucusunu kullanarak müstehcen görüntüler oluşturma özelliğini kaldıran bir güncelleme yayınladı. Bu değişiklikler, bazı kullanıcıların teknolojiyi kullanarak ünlülerden esinlenen çıplak resimler oluşturduğuna dair haberlerin ardından geldi.

Stability AI Sözcüsü Motez Bishara da filtrenin çıplaklığı tespit etmek için anahtar kelimeler ve görüntü tanıma gibi diğer tekniklerin bir kombinasyonunu kullandığını ve bulanık bir görüntü yarattığını söyledi. Ancak şirket yazılımını kamuya açıkladığı için kullanıcıların yazılımı manipüle etmesi ve istediklerini üretmesi mümkün.

Bishara, Stability AI'ın lisansının "Stable Diffusion adlı ücretsiz bir yapay zeka modeli üzerine inşa edilmiş üçüncü taraf uygulamaları da kapsadığını" ve "yasadışı ya da ahlaka aykırı amaçlarla kötüye kullanımı" kesinlikle yasakladığını söyledi.

Bazı sosyal medya şirketleri de platformlarını zararlı materyallere karşı daha iyi korumak için, kurallarını sıkılaştırıyor.

TikTok geçen ay, gerçekçi sahneler gösteren tüm deepfake veya manipüle edilmiş içeriklerin sahte olduklarını veya bir şekilde değiştirildiklerini belirtmek için etiketlenmesi gerektiğini ve özel kişilerin ve gençlerin 'deepfake'lerine artık izin verilmediğini söyledi.

Şirket daha önce, izleyicileri gerçek dünyadaki olaylar hakkında yanlış yönlendiren ve zarar veren cinsel içerikleri ve deepfake'leri yasaklamıştı.

Oyun platformu Twitch de kısa bir süre önce, Atrioc adlı popüler bir yayıncının Ocak ayı sonundaki bir canlı yayın sırasında, bilgisayarında açık bir deepfake porno sitesi olduğunun keşfedilmesinin ardından, uygunsuz deepfake görüntülerle ilgili politikalarını güncelledi. Bilgisayarın tarayıcısında diğer Twitch yayıncılarının sahte görüntüleri yer alıyordu.

Şirket bir blog yazısında, Twitch'in müstehcen deepfake'leri zaten yasakladığını, ancak şimdi bu tür içeriklerin, tepki gösterme amaçlı bile olsa, bir anlık görüntüsünü göstermenin bile "yaptırımla sonuçlanacağını" yazdı. Ayrıca bu tür materyalleri kasıtlı olarak teşvik etmek, oluşturmak ya da paylaşmak da anında, platformdan yasaklanmaya neden oluyor.

Diğer şirketler de deepfake'leri platformlarından yasaklamaya çalıştı; ancak bu tür içerikleri engellemek büyük çaba gerektiriyor.

Apple ve Google geçtiğimiz günlerde, ürünü pazarlamak için oyuncuların cinsel içerikli deepfake videolarını tanıtan bir uygulamayı, mağazalarından kaldırdıklarını açıkladı.

Deepfake pornografi ile ilgili araştırmalar yaygın değil ancak yapay zeka firması DeepTrace Labs tarafından 2019'da yayınlanan bir rapor, ‘deepfake’lerin neredeyse tamamen kadınlara karşı silah olarak kullanıldığını ve en çok hedef alınan kişilerin Batılı kadın oyuncular ve Güney Koreli K-pop şarkıcıları olduğunu ortaya koydu.

Google ve Apple tarafından kaldırılan aynı uygulama Meta'nın Facebook, Instagram ve Messenger'ı içeren platformunda da reklam yayınlamıştı.

Meta sözcüsü Dani Lever yaptığı açıklamada, şirketin politikasının yapay zeka tarafından oluşturulsun oluşturulmasın, bu tür yetişkin içeriği önlemek olduğunu ve uygulamanın sayfasının platformlarında reklam vermesini engellediğini söyledi.

Meta'nın yanı sıra OnlyFans ve Pornhub gibi pornografik siteler de Şubat ayında, gençlerin internetteki müstehcen görüntü ve videolarını bildirmelerine olanak tanıyan Take It Down adlı çevrimiçi bir aracı kullanmaya başladı.

Raporlama sitesi, normal görüntüler ve çocuk güvenliği grupları için giderek artan bir endişe haline gelen yapay zeka tarafından oluşturulan içerik konusunda çalışıyor.

Ancak Take It Down’u geliştiren Ulusal Kayıp ve Sömürülen Çocuklar Merkezi’nin sözcüsü Gavin Portnoy, yapay zeka ve özellikle de deepfake konusunda, doğrudan bir müdahale aracı oluşturamadıklarını söyledi.

STÜDYO VOA

İsrail Savunma Bakanı Gallant Washington’da – 24 Haziran
lütfen bekleyin

No media source currently available

0:00 0:29:58 0:00
XS
SM
MD
LG