Çılgın bir sıcak hava dalgası sırasında gerçekleştirilen önemli bir seçimin ortasında, kafa karıştırıcı deepfake kasırgası Hindistan'ı kasıp kavuruyor. Çeşitlilik sonsuz görünüyor: Yapay zeka destekli taklit, vantrilokluk ve yanıltıcı düzenleme efektleri. Bazıları iğrenç, bazıları komik, bazıları ise o kadar bariz bir şekilde sahte ki, onun gerçek olduğunu asla düşünmezsiniz.
Genel etki kafa karıştırıcı ve zaten yanlış bilgilerle dolu olan sosyal medya ortamını güçlendiriyor. Çevrimiçi çöp miktarı, bir seçim komisyonunun takip edemeyeceği ve hatta ifşa edemeyeceği kadar büyük.
Bu boşluğu doldurmak için bir dizi yasa dışı bilgi kontrol kuruluşu ortaya çıktı. Adaletin çarkları yavaş ve dengesiz bir şekilde dönerken, Hindistan merkezli yüzlerce hükümet çalışanı ve özel doğrulama grubu, derin sahtekarlıkların izini sürme görevini üstlendi.
Seçim sırasında sahte yapay zeka tarafından oluşturulan içeriği takip eden 70 üyeli bir ekibe liderlik etmek üzere görevlendirilen Karnataka eyaletindeki orman yetkilisi Surya Sen, “Hazır olmalıyız” dedi. “Sosyal medya bu yıl bir savaş alanı.” Sen'in ekibi yasa dışı olduğuna inandığı bir içerik bulduğunda, sosyal medya platformlarını bu içeriğin kaldırılması için çağırıyor, dolandırıcılığı duyuruyor ve hatta suç duyurusunda bulunulmasını talep ediyor.
Hint sinema yıldızı Ranveer Singh de dahil olmak üzere ünlüler siyasi oyunların popüler hedefleri haline geldi.
Varanasi'de Ganj Nehri kıyısındaki bir Hint haber ajansıyla videoya kaydedilen bir röportaj sırasında Singh, güçlü Başbakan Narendra Modi'yi “zengin kültürel mirasımızı” kutladığı için övdü. Ancak izleyicilerin duyduğu şey bu değildi, çünkü videonun Singh'in sesine benzeyen bir ses ve neredeyse mükemmel bir dudak senkronizasyonu içeren değiştirilmiş bir versiyonu sosyal medyada dolaştı.
İnsanların şüpheli videoları ve sesleri incelenmek üzere gönderebilecekleri WhatsApp üzerinde bir yardım hattı kuran Hint medya evlerinden oluşan bir koalisyon olan Deepfakes Analiz Birimi'nin başkanı Pamposh Raina, “Bunlara dudak senkronizasyonu deepfake'leri diyoruz” dedi. Bay Singh'in videosunun, yapay zekanın klonlanmış sesiyle düzenlenen özgün görüntülerin tipik bir örneği olduğunu söyledi. Oyuncu, Mumbai Polisinin Siber Suç Birimi'ne şikayette bulundu.
Bu seçimde yanıltıcı içerik hiçbir partinin tekelinde değil. Başka bir manipüle edilmiş klip, Modi'nin en önde gelen rakibi Rahul Gandhi'nin aday olarak günlük yemin töreninde yer aldığını gösteren orijinal görüntülerle başladı. Daha sonra her şey yapay zeka tarafından oluşturulan bir ses parçasıyla kaplandı.
Bay Gandhi aslında partisinden istifa etmedi. Bu klip aynı zamanda Bay Gandhi'nin “artık bir Hindu gibi davranamayacağını” söylediği kişisel bir iğnelemeyi de içeriyor. İktidardaki Bharatiya Janata Partisi kendisini Hindu inancının savunucuları, karşıtlarını ise hain veya sahtekar olarak tanıtıyor.
Bazen siyasi deepfake'ler doğaüstü olaylara sürükleniyor. Ölü politikacılar, yapay zeka tarafından oluşturulan ürkütücü görüntüler aracılığıyla hayata geri dönüyor ve onların soyundan gelenlerin gerçek hayattaki kampanyalarını destekliyorlar.
Nisan ayındaki seçimlerin başlamasından birkaç gün önce yayınlanan bir videoda, 2020'de Kovid-19'dan ölen yeniden dirilen H. Vasanthakumar, dolaylı olarak kendi ölümünden bahsetti ve babasının eski parlamento koltuğuna aday olan oğlu Vijay'i kutsadı. Güney Tamil Nadu Eyaleti adayları. Bu görünüm, Tamil siyasetinin diğer iki son dönem devleri Muthuvel Karunanidhi ve Jayalalithaa Jayaram'ın oluşturduğu örneği takip etti.
Modi hükümeti, Hintlileri deepfake ve diğer yanıltıcı içeriklerden korumak için yasa taslağı hazırladı. 2021 tarihli “BT Kuralları” yasası, ABD'nin aksine, çevrimiçi platformları rahatsız edici taklitler de dahil olmak üzere her türlü sakıncalı içerikten sorumlu kılmaktadır. Hintli bir dijital haklar örgütü olan İnternet Özgürlüğü Vakfı, bu yetkilerin çok geniş olduğunu savunuyor ve yasaya karşı 17 yasal itirazın peşinde.
Ancak Başbakan'ın kendisi de yapay zeka tarafından üretilen bazı içerik türlerine açık görünüyor. Yapay zeka araçları kullanılarak hazırlanan iki videoda, Hindistan'ın en büyük politikacılarından ikisi olan Bay Modi ve onun en azılı rakiplerinden biri olan Mamata Banerjee, Amerikalı rapçi Lil Yachty'nin “ŞİMDİYE KADARKİ EN ZOR yürüyüşü” gerçekleştirdiği viral bir YouTube videosunu yeniden yaratırken görülüyor.
Videoyu X'te paylaşan Bay Modi, böyle bir yaratıcılığın “bir zevk” olduğunu söyledi. Karnataka'daki Bay Sen gibi seçim yetkilileri bunu siyasi hiciv olarak nitelendirdi: “Modi rock yıldızı iyidir ve ihlal değildir. İnsanlar bunun sahte olduğunu biliyor.”
Bayan Banerjee'nin başbakan olduğu Batı Bengal polisi, bazı kişilere “saldırgan, kötü niyetli ve kışkırtıcı” içerik yayınlamaları nedeniyle bildirim gönderdi.
Sen, derin sahtekarlık arayışında, muhalefetin kontrolündeki bir eyalet hükümeti için çalışan Karnataka'daki ekibinin Instagram ve X gibi sosyal medya platformlarını dikkatlice aradığını, anahtar kelimeler aradığını ve popüler etkileyicilerin hesaplarını sürekli güncellediğini söyledi.
Deepfakes Analiz Birimi'nin medya sektöründe, bazıları Modi hükümetine yakın olanlar da dahil olmak üzere 12 doğrulama ortağı var. Raina, biriminin ayrıca Berkeley'deki Kaliforniya Üniversitesi'ndeki bir laboratuvar da dahil olmak üzere dış adli tıp laboratuvarlarıyla da çalıştığını söyledi. Medya dosyalarını tarayan ve güvenilir olup olmadıklarını belirleyen TrueMedia gibi yapay zeka algılama yazılımlarını kullanıyorlar.
Teknoloji meraklısı bazı mühendisler, videonun hangi kısmına müdahale edildiğini tek tek piksellere kadar tespit edecek şekilde yapay zeka adli yazılımını geliştiriyor.
Hindistan'ın en saygın bağımsız doğrulama sitesi Alt News'in kurucusu Pratik Sinha, deepfake'in yeteneklerinin henüz tam anlamıyla kullanılmadığını söyledi. Bir gün videoların politikacılara yalnızca söylemedikleri şeyleri değil, yapmadıkları şeyleri de yaptıklarını gösterebileceğini söyledi.
Dr. Hany Farid, 25 yıldır Berkeley'de dijital adli tıp dersleri veriyor ve bazı durumlarda Deepfakes Analiz Birimi'nde çalışıyor. Biz “kötü deepfake'leri yakalarken” daha karmaşık sahtekarlıkların ortaya çıktıklarında tespit edilemeyebileceğini söyledi.
Hindistan'da, başka yerlerde olduğu gibi, derin sahtekarlar ve teyitçiler arasında tüm tarafların birbirine karşı savaştığı bir silahlanma yarışı sürüyor. Dr. Farid bunu “Yapay zekanın etkisini gerçekten ilginç ve daha kötü şekillerde görmeye başladığımızı düşündüğüm ilk yıl” olarak tanımladı.
Genel etki kafa karıştırıcı ve zaten yanlış bilgilerle dolu olan sosyal medya ortamını güçlendiriyor. Çevrimiçi çöp miktarı, bir seçim komisyonunun takip edemeyeceği ve hatta ifşa edemeyeceği kadar büyük.
Bu boşluğu doldurmak için bir dizi yasa dışı bilgi kontrol kuruluşu ortaya çıktı. Adaletin çarkları yavaş ve dengesiz bir şekilde dönerken, Hindistan merkezli yüzlerce hükümet çalışanı ve özel doğrulama grubu, derin sahtekarlıkların izini sürme görevini üstlendi.
Seçim sırasında sahte yapay zeka tarafından oluşturulan içeriği takip eden 70 üyeli bir ekibe liderlik etmek üzere görevlendirilen Karnataka eyaletindeki orman yetkilisi Surya Sen, “Hazır olmalıyız” dedi. “Sosyal medya bu yıl bir savaş alanı.” Sen'in ekibi yasa dışı olduğuna inandığı bir içerik bulduğunda, sosyal medya platformlarını bu içeriğin kaldırılması için çağırıyor, dolandırıcılığı duyuruyor ve hatta suç duyurusunda bulunulmasını talep ediyor.
Hint sinema yıldızı Ranveer Singh de dahil olmak üzere ünlüler siyasi oyunların popüler hedefleri haline geldi.
Varanasi'de Ganj Nehri kıyısındaki bir Hint haber ajansıyla videoya kaydedilen bir röportaj sırasında Singh, güçlü Başbakan Narendra Modi'yi “zengin kültürel mirasımızı” kutladığı için övdü. Ancak izleyicilerin duyduğu şey bu değildi, çünkü videonun Singh'in sesine benzeyen bir ses ve neredeyse mükemmel bir dudak senkronizasyonu içeren değiştirilmiş bir versiyonu sosyal medyada dolaştı.
İnsanların şüpheli videoları ve sesleri incelenmek üzere gönderebilecekleri WhatsApp üzerinde bir yardım hattı kuran Hint medya evlerinden oluşan bir koalisyon olan Deepfakes Analiz Birimi'nin başkanı Pamposh Raina, “Bunlara dudak senkronizasyonu deepfake'leri diyoruz” dedi. Bay Singh'in videosunun, yapay zekanın klonlanmış sesiyle düzenlenen özgün görüntülerin tipik bir örneği olduğunu söyledi. Oyuncu, Mumbai Polisinin Siber Suç Birimi'ne şikayette bulundu.
Bu seçimde yanıltıcı içerik hiçbir partinin tekelinde değil. Başka bir manipüle edilmiş klip, Modi'nin en önde gelen rakibi Rahul Gandhi'nin aday olarak günlük yemin töreninde yer aldığını gösteren orijinal görüntülerle başladı. Daha sonra her şey yapay zeka tarafından oluşturulan bir ses parçasıyla kaplandı.
Bay Gandhi aslında partisinden istifa etmedi. Bu klip aynı zamanda Bay Gandhi'nin “artık bir Hindu gibi davranamayacağını” söylediği kişisel bir iğnelemeyi de içeriyor. İktidardaki Bharatiya Janata Partisi kendisini Hindu inancının savunucuları, karşıtlarını ise hain veya sahtekar olarak tanıtıyor.
Bazen siyasi deepfake'ler doğaüstü olaylara sürükleniyor. Ölü politikacılar, yapay zeka tarafından oluşturulan ürkütücü görüntüler aracılığıyla hayata geri dönüyor ve onların soyundan gelenlerin gerçek hayattaki kampanyalarını destekliyorlar.
Nisan ayındaki seçimlerin başlamasından birkaç gün önce yayınlanan bir videoda, 2020'de Kovid-19'dan ölen yeniden dirilen H. Vasanthakumar, dolaylı olarak kendi ölümünden bahsetti ve babasının eski parlamento koltuğuna aday olan oğlu Vijay'i kutsadı. Güney Tamil Nadu Eyaleti adayları. Bu görünüm, Tamil siyasetinin diğer iki son dönem devleri Muthuvel Karunanidhi ve Jayalalithaa Jayaram'ın oluşturduğu örneği takip etti.
Modi hükümeti, Hintlileri deepfake ve diğer yanıltıcı içeriklerden korumak için yasa taslağı hazırladı. 2021 tarihli “BT Kuralları” yasası, ABD'nin aksine, çevrimiçi platformları rahatsız edici taklitler de dahil olmak üzere her türlü sakıncalı içerikten sorumlu kılmaktadır. Hintli bir dijital haklar örgütü olan İnternet Özgürlüğü Vakfı, bu yetkilerin çok geniş olduğunu savunuyor ve yasaya karşı 17 yasal itirazın peşinde.
Ancak Başbakan'ın kendisi de yapay zeka tarafından üretilen bazı içerik türlerine açık görünüyor. Yapay zeka araçları kullanılarak hazırlanan iki videoda, Hindistan'ın en büyük politikacılarından ikisi olan Bay Modi ve onun en azılı rakiplerinden biri olan Mamata Banerjee, Amerikalı rapçi Lil Yachty'nin “ŞİMDİYE KADARKİ EN ZOR yürüyüşü” gerçekleştirdiği viral bir YouTube videosunu yeniden yaratırken görülüyor.
Videoyu X'te paylaşan Bay Modi, böyle bir yaratıcılığın “bir zevk” olduğunu söyledi. Karnataka'daki Bay Sen gibi seçim yetkilileri bunu siyasi hiciv olarak nitelendirdi: “Modi rock yıldızı iyidir ve ihlal değildir. İnsanlar bunun sahte olduğunu biliyor.”
Bayan Banerjee'nin başbakan olduğu Batı Bengal polisi, bazı kişilere “saldırgan, kötü niyetli ve kışkırtıcı” içerik yayınlamaları nedeniyle bildirim gönderdi.
Sen, derin sahtekarlık arayışında, muhalefetin kontrolündeki bir eyalet hükümeti için çalışan Karnataka'daki ekibinin Instagram ve X gibi sosyal medya platformlarını dikkatlice aradığını, anahtar kelimeler aradığını ve popüler etkileyicilerin hesaplarını sürekli güncellediğini söyledi.
Deepfakes Analiz Birimi'nin medya sektöründe, bazıları Modi hükümetine yakın olanlar da dahil olmak üzere 12 doğrulama ortağı var. Raina, biriminin ayrıca Berkeley'deki Kaliforniya Üniversitesi'ndeki bir laboratuvar da dahil olmak üzere dış adli tıp laboratuvarlarıyla da çalıştığını söyledi. Medya dosyalarını tarayan ve güvenilir olup olmadıklarını belirleyen TrueMedia gibi yapay zeka algılama yazılımlarını kullanıyorlar.
Teknoloji meraklısı bazı mühendisler, videonun hangi kısmına müdahale edildiğini tek tek piksellere kadar tespit edecek şekilde yapay zeka adli yazılımını geliştiriyor.
Hindistan'ın en saygın bağımsız doğrulama sitesi Alt News'in kurucusu Pratik Sinha, deepfake'in yeteneklerinin henüz tam anlamıyla kullanılmadığını söyledi. Bir gün videoların politikacılara yalnızca söylemedikleri şeyleri değil, yapmadıkları şeyleri de yaptıklarını gösterebileceğini söyledi.
Dr. Hany Farid, 25 yıldır Berkeley'de dijital adli tıp dersleri veriyor ve bazı durumlarda Deepfakes Analiz Birimi'nde çalışıyor. Biz “kötü deepfake'leri yakalarken” daha karmaşık sahtekarlıkların ortaya çıktıklarında tespit edilemeyebileceğini söyledi.
Hindistan'da, başka yerlerde olduğu gibi, derin sahtekarlar ve teyitçiler arasında tüm tarafların birbirine karşı savaştığı bir silahlanma yarışı sürüyor. Dr. Farid bunu “Yapay zekanın etkisini gerçekten ilginç ve daha kötü şekillerde görmeye başladığımızı düşündüğüm ilk yıl” olarak tanımladı.