1. Ana Sayfa
  2. İnternet
  3. ‘Deepfakes’ nedir ve nasıl tehlikeli olabilirler?

‘Deepfakes’ nedir ve nasıl tehlikeli olabilirler?

106173405-1570674137430gettyimages-1167464772
Abone Ol

Kamera uygulamaları giderek daha karmaşık hale geldi. Kullanıcılar bacaklarını uzatabilir, sivilceleri kaldırabilir, hayvan kulağı ekleyebilir ve şimdi çok gerçek görünen sahte videolar bile oluşturabilir. Bu tür dijital içeriği oluşturmak için kullanılan teknoloji hızla kitlelere erişilebilir hale geldi ve buna “Deepfakes” deniyor.

Deepfakes, yapay görüntüler ve gerçek gibi görünen sesler veren, yapay zeka tarafından üretilen diğer dijital gösterimleri ifade eder.

Bu tür videolar “giderek daha sofistike ve erişilebilir hale geliyor” dedi . Washington merkezli kamu politikaları organizasyonu Brookings Enstitüsü’nde Teknoloji İnovasyon Merkezi’nde yerleşik olmayan yönetişim çalışmaları üyesi John Villasenor. “Deepfakes, bir dizi zorlu politika, teknoloji ve yasal sorun yaratıyor.”

Aslında, bilgisayarı olan ve internete erişimi olan herkes teknik olarak derin içerikler üretebilir, dedi. Ayrıca California Üniversitesi, Los Angeles’ta elektrik mühendisliği profesörü olan Villasenor.

Deepfakes nedir?

Deepfake kelimesi, “derin öğrenme” ve “sahte” terimlerini birleştiriyor ve yapay zekanın bir şekli.

New York Üniversitesi’nde hukuk profesörü olan Paul Barrett, Basit terimlerle, Deepfakes derin öğrenme yoluyla yapılan sahte videolar olduğunu söyledi.

Derin öğrenme “AI’nın bir alt kümesidir” ve kendi başlarına akıllı kararlar alabilen ve öğrenebilen algoritma düzenlemelerini ifade eder.

Ancak bunun tehlikesi, “İnsanların olmadığında bir şeyin gerçek olduğuna inanmasını sağlamak için teknoloji kullanılabiliyor” dedi.

Deepfakes tehlikeleri konusunda uyarılan tek kişi şarkıcı değil.

Villasenor, “adayın daha önce hiç yaşanmamış şeyler söyleme veya yapma gibi görünmesini sağlayarak siyasi bir adayın itibarını baltalamak için kullanılabileceğini” söyledi.

Villasenor, “Seçimleri etkilemek için yanlış bilgi kullanmak isteyenler için güçlü ve yeni bir araç” dedi.

Deepfakes nasıl çalışır?

Derin öğrenme sistemi, hedef kişinin fotoğraflarını ve videolarını birden fazla açıdan inceleyerek ve ardından davranışlarını ve konuşma modellerini taklit ederek ikna edici bir sahte üretebilir.

Barrett, “bir sahte ön üretildikten sonra, GAN’lar olarak bilinen bir yöntem ya da üretici karşıt ağlar, onu daha inanılır hale getirdi. GAN süreci, sahtecilikteki kusurları tespit etmeye çalışarak kusurları giderecek iyileştirmelere yol açıyor ”dedi.

Profesör, çok sayıda algılama ve iyileştirme işleminden sonra derin videonun tamamlandığını söyledi.

Bir MIT teknoloji raporuna göre, Deepfakes  mümkün kılan bir cihaz, “hisse senedi fiyatlarından seçimlere kadar her şeyi etkilemek isteyen sahte haber satıcıları için mükemmel bir silah” olabilir.

MIT Technology Review’in San Francisco bürosu şefi Martin Giles, “AI araçları, başkalarının yüzlerinin porno yıldızlarının vücutlarına fotoğraflarını çekmek ve politikacıların ağzına kelimeler koymak için zaten kullanılıyor” diyor.

GAN’lerin bu sorunu yaratmadığını, ancak daha da kötüleşeceğini söyledi.

Değiştirilen videolar nasıl tespit edilir?

Brookings’in Villasenor şubat ayında yazdığı gibi AI derinlemesine yapmak için kullanılabilirken, onları tespit etmek için de kullanılabilir . Teknoloji, herhangi bir bilgisayar kullanıcısı için erişilebilir hale geldiğinde, gittikçe daha fazla sayıda araştırmacı derin algılamaya odaklanmakta ve onu düzenlemenin bir yolunu aramaktadır.

Facebook ve Microsoft gibi büyük şirketler, derin videoları tespit etmek ve kaldırmak için girişimlerde bulundular. İki şirket bu yılın başlarında , Reuters ’e göre araştırma için geniş bir sahte video veritabanı oluşturmak üzere ABD’ deki en iyi üniversitelerle işbirliği yapacaklarını açıkladılar .

New America’dan Singer, “Şu anda, daha yakından bakarsanız, kulaklardan veya gözlerden yüzün bulanık sınırlarına uymayan herhangi bir şey veya cildin ışık ve gölgelere kadar pürüzsüz bir cilde bakması durumunda hafif görsel yönler var” dedi.

Ancak, “söyleme” nin tespit edilmesinin, daha derin hale geldikçe ve videolar daha gerçekçi göründükçe zorlaştığını söyledi.

Teknoloji gelişmeye devam etse bile, Villasenor, algılama tekniklerinin “çoğu zaman en gelişmiş oluşturma yöntemlerinin gerisinde kaldığı” uyarısında bulundu. Dolayısıyla, daha iyi olan soru şudur: “İnsanların videoyu fabrikasyon olarak işaretleyen bir derinliğe veya algılama algoritmasına inanması daha olası olacak mı? ?”

Yorum Yap