Şimdi Ara

Deepfake tekniğiyle taklit ettikleri sesi kullanan hırsızlar, yaklaşık 250 bin dolar çaldı

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
7
Cevap
0
Favori
1.415
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
0 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • Daha çok videolarda karşımıza çıkan deepfake tekniği, bu sefer Almanya merkezli bir enerji firmasının dolandırılması için kullanıldı. Almanya’da konuşlu ana şirketin CEO’sunun sesini deepfake yöntemiyle taklit eden hırsızlar,  bu sayede şirketin İngiltere’de bulunan bağlı ortaklığından istedikleri miktardaki paranın transferi için onay aldılar.

    İlk defa karşılaşılan dolandırıcılık yönteminde siber suçlular, taklit ettikleri sesi kullanarak aradıkları İngiliz CEO’yu söz konusu para transferini yapması için ikna etmişler. Wall Street Journal’a göre Macar bir tedarikçiye gönderileceği söylenen 243 bin dolar tutarındaki meblağa onay veren İngiliz CEO, Alman patronuyla konuştuğuna emin olarak bu işlemi yaptığını belirtmiş.

    Alman CEO’nun sesinin kusursuz biçimde taklit edildiği yöntemde patronuyla konuştuğuna emin olan İngiliz CEO, konuştuğu şahsın sahip olduğu şive ve aksanın gerçeğinden ayırt edilemediğini ifade etmiş.

    Yetkililer, verilen onay neticesinde önce Meksika’ya ve ardından diğer ülkelere transfer edilen paradan ise henüz bir haber alınamadığını ve konuyla ilgili ellerinde bir şüpheli listesi bulunmadığını söylüyor.

    Olayın farkına üçüncü aramada vardı 

    Toplamda üç kez telefonla aranan İngiliz CEO, ilk aramada kendisinden 243 bin dolarlık paranın talep edildiğini ve Almanya’daki merkezin ise bir saat içinde masrafları tazmin edeceğini belirttiğini ifade etmiş. İkinci aramada ise söz konusu paranın tazmin edildiği bilgisini alan CEO, üçüncü kez tekrar aranmış. Yapılan son aramda tekrar para göndermesi talep edilen CEO, ilk yaptığı transfere ait geri ödemenin yapılmaması ve son çağrının Avusturya’ya ait bir telefon numarası üzerinden gelmesi neticesinde şüphelenerek iletişimi kesmiş. Tüm bu yaşananlar neticesinde ise dolandırıcılık olayı ortaya çıkmış.

    İngiliz CEO’nun yaptığı telefon görüşmelerinde sorulan sorulara bir chatbot marifetiyle cevap verilip verilmediği ise konunun bir başka boyutunu oluşturuyor. Zira söz konusu dolandırıcılık faaliyetinde bir chatbot kullanılmış olma ihtimali, olayın tamamen otomatikleştirilmiş olabileceği anlamına geliyor. Bu durumda hırsızların çok güçlü bir teknolojik silaha sahip olduğu yorumunu yapmak yanlış olmayacaktır.








  • ses taklit etme yazılımı ne zaman çıktı? en son adobe bir yazılım yapmıştı ama demodan öteye gidemedi.

  • Valla sakat işler. Yapay zeka ile artık görüntü, ses taklit edilebiliyor. Özellikle başkan konumundakilerin ekstra güvenlik önlemleri alması şart. Bir ara obama'nın deepfake i vardı. Yani görüntülü arıyorum ayağına bile bir ülkenin başbakanını, başka bir ülke başbakanı gibi arayıp bir çok probleme sebep olabilirler.

  • Belki yazılım ile yapılmamıştır, başka bir insan taklit etmiştir

  • Bu daha başlangıç.Deepfake çok kötü şeylere sebep olacak bence.



    < Bu mesaj bu kişi tarafından değiştirildi Guest-2472D2B0E -- 5 Eylül 2019; 14:5:30 >
    < Bu ileti mobil sürüm kullanılarak atıldı >
  • Yandık...
    Yavrum ben annen....
    Baban ben...
    Canımmm sevgilim....

  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.