Haber

Yapay zekayla dolandırıcılık: Son kurban Defne Samyeli!

Dolandırıcıların son yöntemi ise yapay zeka kullanılarak hazırlanan sahte ünlü görselleri. Teknolojiyi kullanarak ünlü isimlerin imajlarını ve seslerini değiştiren dolandırıcılar, yatırım tavsiyesi yalanıyla kandırıyor.

Defne Samyeli, daha önce Esra Erol ve ekonomist Özgür Demirtaş gibi ünlü isimlerin geçersiz görselleriyle dolandırıcılık yapanların son kurbanı oldu. Samyeli, sahte görseller kullanılarak hazırlanan görselle yatırım tavsiyesi adı altında dolandırıcılık yapıldığını iddia etti.

“ÖZELLİKLE PARA VARSA”

Sosyal medya hesabından takipçilerini uyaran Samyeli, “Eğer işin içinde para varsa ekstra dikkatli olun” dedi. söz konusu.

Sahte videoyla çok sayıda kişinin dolandırıldığını söyleyen Samyeli, “Bu videonun tamamen uydurma bir montaj olduğu ilk bakışta anlaşılsa da birçok vatandaşımızın dolandırılmasına sebep olduğunu anlıyorum. İnsanları her türlü yatırıma yönlendirecek bir yayın. Bu tür sponsorlu yayınları görünce insanlar çok dikkatli oluyor demektir.” Bunun olması gerekiyor, özellikle işin içinde para varsa.” diye uyardı.

YASAL SÜREÇ BAŞLATILACAK

Dolandırıcılar hakkında yasal işlem başlatacağını söyleyen Samyeli, “Sadece ben değil güvendiğiniz herkesi bu dönemde ‘paranızı buraya yatırın’ diye bir video gördüğünüzde yüzlerce kez sorgulamanızı tavsiye ederim. Hakkında” Vatandaşları dolandıranların sorumluları, bu videoları benim yüzümü ve yayınlarımı kullanarak YouTube kanalımda yayıp yayınlıyorlar.” “Bu fırsatı değerlendirerek hukuki süreci başlatacağımı duyurmak istiyorum.” söz konusu.

Derin sahte:

Deepfake, gerçek bir kişinin yüzünün başka bir kişinin yüzünün üzerine yerleştirildiği uydurma bir görüntü veya görüntüdür. Deepfake genellikle ünlüleri, politikacıları veya diğer tanınmış kişileri hedef alan dolandırıcılıklarda kullanılıyor.

KAYNAK: NTV

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu