Dolar 35,1981
Euro 36,7471
Altın 2.968,65
BİST 9.724,50
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 13°C
Az Bulutlu
İstanbul
13°C
Az Bulutlu
Pts 12°C
Sal 13°C
Çar 12°C
Per 11°C

Doğrulama platformundan “seçim döneminde yapay zeka üretimi içeriklere dikkat” uyarısı

Doğrulama platformundan “seçim döneminde yapay zeka üretimi içeriklere dikkat” uyarısı
REKLAM ALANI
25 Mart 2024 16:17
44

Yayımladığı rehber nitelikli içeriklerle yapay zeka teknolojisine eleştirel bir bakış açısı kazandırmayı hedefleyen doğrulama platformu, deepfake fark etme testi düzenledi. Üç kişiden ikisinin yapay zeka destekli görselleri ayırt edebildiği teste 2.579 kişi katıldı. Platform, seçim dönemlerinde yapay zeka tarafından üretilen içeriklere karşı daha dikkatli olunması çağrısında bulundu.

Yapay zeka teknolojisinin hızlı yayılmasının yanlış bilgi sorununu etkilemesine ve hakikati bulandırmasına yönelik endişeler arttı. 2024’ün seçimler yılı olması ve yapay zeka teknolojisiyle oluşturulan deepfake (sahte kurgu) görüntü ve seslerin seçmen davranışlarını etkileme olasılığı da bu endişeleri destekledi. 2016'dan bu yana internetteki şüpheli bilgileri inceleyen, dijital okuryazarlık ve eleştirel düşünme becerilerini geliştirmek için eğitim faaliyetleri yürüten doğrulama platformu teyit.org, bu konudaki farkındalığı artırmak için bir deepfake testi hazırladı. 

ARA REKLAM ALANI

Konuyla ilgili değerlendirmelerini paylaşan Teyit Eğitim İçerikleri Sorumlusu Zeynep Şahin, “Yapay zeka teknolojisi o kadar hızlı gelişti ki gerçeğe epey yakın görsel çıktılar artık neredeyse her gün karşımıza çıkabiliyor. Yapay zekanın ürettiği sahte kurguları tespit etmeye yönelik ipuçlarının da aynı hızda güncellenmesi gerekiyor. Yalnızca Türkiye’nin değil, dünya nüfusunun neredeyse dörtte birinin sandık başına gittiği bu yıl, yapay zeka tarafından üretilen içeriklere karşı daha dikkatli olunmalı” dedi.

Teste katılanların doğru yanıt oranı %67,84 oldu

Teyit’in testinde, ThisPersonDoesNotExist.com adresinden alınan, StyleGAN2 isimli yapay zeka algoritması tarafından üretilen insan görselleri ve gerçek insan fotoğraflarının, yapay zeka üretimi mi yoksa gerçek mi olduğu soruldu. Teste 2.579 kişi katılırken, doğru yanıt verme oranı %67,84 olarak kaydedildi. 

Seçim yılında yapay zekanın seçmen davranışını etkileyebileceğinden endişe edildiğini belirten Zeynep Şahin, “Adayların yapay zeka ile oluşturulmuş deepfake görüntü ve seslerinin kullanılması, bu teknolojiye karşı seçim döneminde dikkatli olmamız gerektiğini hatırlatıyor. Zira dezenformasyonun dozunun artması, alışılmışın dışında yöntemlerle oluşturulmuş yanlış bilgilerin üretilmesi, yapay zeka ile üretilmiş ses ve görüntülerin gerçeklik algısını bozması, bu küresel seçim yılında beklenenler arasında yer alıyor. teyit.org olarak hazırladığımız test, ipuçlarını yakalamak ve bir görselin yapay zeka üretimi olup olmadığını anlamak için dikkat edilmesi gerekenleri, uygulamalı bir biçimde öğrenmek için etkili bir araç sunuyor” diye konuştu.

“Tespit için de yapay zekadan yararlanılabilir” 

OpenAI’ın duyurduğu metin komutlarından video üretebilen Sora’nın ortaya çıkmasından sonra yapay zekanın gerçeğe yakın üretim kapasitesinin daha da belirginleştiğini ifade eden Teyit Eğitim İçerikleri Sorumlusu Zeynep Şahin, 

“Her ne kadar yapay zeka ile üretilmiş görüntü ve sesler artık gerçeğe çok yakın olsalar da onların doğruluğunu teyit etmek hâlâ mümkün. Biz kullanıcılara düşen başlıca görev, karşımıza çıkan görsel, video ve seslerin kaynağını sorgulamak ve sosyal medya akışımıza daha eleştirel bir gözle bakabilmek için yavaşlamak. Şüpheli görseldeki bozulmalar gözle görülür olmasa bile, bir görselin yapay zekayla üretilip üretilmediğini anlamak için de yapay zeka araçlarından yararlanılabiliyor. Yapay zeka, sebep olduğu düşünülen sorunun çözümünü de sunuyor. Sekiz yıldır yanlış bilgiyle mücadele eden teyit.org olarak, hem seçim öncesinde yanıltıcı bilgilerin doğrulunu teyitliyor hem de geçmiş seçim dönemlerinde sıkça karşılaşılan yanlış ve yanıltıcı bilgileri belirli başlıklar altında toplayarak paylaşıyoruz” ifadelerini kullandı.

“Alarm zilleri çalmak için erken olabilir”

Yapay zeka konusundaki görüşlerin iki ayrı uçta konumlandığını ve bir gerilime sebep olduğunu söyleyen Zeynep Şahin, değerlendirmelerini şu ifadelerle sonlandırdı: “Bir yandan faydalarını konuşuyoruz, bir yandan da işimizin elimizden gideceğinden veya geleceğin en tehlikeli suçlarının yapay zeka ile üretileceğinden korkuyoruz. Yapay zekayla üretilen sahte kurguya sahip içeriklerin, seçmenleri sandığa gitmemeye ikna etmek, gerçeklik algısını bulandırmak gibi riskleri seçim dönemlerinde daha çok öne çıkıyor. Örneğin Ocak 2024’te ABD’de Joe Biden adına, yapay zeka tarafından onun sesinin taklit edildiği bir sahte ses kaydı, seçmenlerden sandığa gitmemelerini istiyordu. Risklerin farkında olmanın her zamankinden daha önemli olduğunu bilmek gerekiyor. 

Ancak öte yandan bazı uzmanlar, bu teknolojiyle ilgili alarm zillerinin erken çalındığı görüşünü paylaşıyor. Harvard Üniversitesi’nden akademisyenler tarafından kaleme alınan araştırmada, yeni teknolojilerin insanlarda her zaman panik yarattığı belirtiliyor. Yanlış bilgi sorununa yönelik sürdürülebilir çözümlerin geliştirilmesine katkıda bulunan Teyit olarak, eğitim içeriklerimizde yapay zeka konusuna odaklanıyor ve teyitçiliği yapay zeka çağına uyarlıyoruz. Eleştirel bakış açısı kazanmak isteyen herkes, Teyit’in içeriklerinden yararlanarak yapay zekanın iyi potansiyeline dair bilgi sahibi olabilir.”

Hibya Haber Ajansı

REKLAM ALANI
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.