Şimdi Ara

Microsoft bu sefer korkuttu: Her türlü sesi taklit edebilen VALL-E duyuruldu

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
3 Misafir - 3 Masaüstü
5 sn
30
Cevap
2
Favori
852
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
8 oy
Öne Çıkar
Sayfa: 12
Sayfaya Git
Git
sonraki
Giriş
Mesaj
  • Microsoft bu sefer korkuttu: Her türlü sesi taklit edebilen VALL-E duyuruldu
    Microsoft kısa bir süre önce, insanların seslerini taklit edebilen VALL-E olarak bilinen bir yapay zeka aracı yayınladı. VALL-E her ne kadar oldukça başarılı bir araç olsa da beraberinde bir dizi endişeleri de şimdiden getirmiş durumda. Zira araç, çok kısa bir ses örneğinden sonra her türlü sesi taklit edebiliyor.



    VALL-E söylenmeyeni söyletiyor



    Microsoft kısa bir süre önce, insanların seslerini taklit edip çoğaltabilen VALL-E yapay zeka aracı yayınladı. Araç, 60.000 saatlik İngilizce konuşma verisi üzerinde eğitildi ve içerik oluşturmak için belirli seslerin sadece 3 saniyelik kesitlerini kullanıyor. Birçok yapay zeka aracının aksine VALL-E, orijinal konuşmacının asla söylemediği kelimelerin kaydını oluştururken bile konuşmacının duygularını ve tonunu kopyalayabiliyor.



    Ayrıca Bkz.Avukatlar endişelenmeli mi? İlk kez bir yapay zeka avukatı gerçek bir davada görev alacak



    Microsoft bu sefer korkuttu: Her türlü sesi taklit edebilen VALL-E duyuruldu
    Cornell Üniversitesi’nin birkaç sesi sentezlemek için VALL-E’yi kullandığı küçük bir makale halihazırda GitHub'da mevcut durumda ve ortaya çıkan sonuçlar büyük bir başarıyı gösteriyor olsa da aynı zamanda endişe verici. Öte yandan ses örnekleri incelendiğinde bazılarının biraz daha robotik olduğu anlaşılabiliyor ancak bazıları da neredeyse kusursuza yakın. Ancak bu örneklerin sadece 3 saniyelik bir ses dosyasından elde edildiğini unutmamak gerekiyor. Aynı zamanda 60.000 saatlik veri seti de yine çok büyük bir miktar değil.



    Şu anda VALL-E’yi kullanmak mümkün değil ve esasında bu da iyi bir şey olabilir çünkü insanların seslerinin yapay zeka tarafından oluşturulmuş kopyaları internet trolleri veya başka kişiler tarafından tehlikeli bir şekilde kullanılabilir.



    VALL-E tehlikeli durumlar yaratabilir



    Öte yandan VALL-E ve benzeri sistemler giderek daha gerçekçi ve etkileyici olmaya devam ederken bazı etik kaygıları da önümüze getiriyor. Örneğin bu sistemin kullanılmasıyla ortaya çıkarılan bir sözde ses kaydı ciddi sonuçlar doğurabilir. Politikacılar ve diğer tanınmış kişiler kötü amaçlar için taklit edilebilir. Sadece bu da değil, bir dizi güvenlik sorununu da ortaya çıkarıyor. Örneğin sesli doğrulamaya sahip bankalar.



    Yapay zeka temelli ses taklitleri elbette iyi şeyler için de kullanılabilir. Sevdiğiniz bir sanatçının sesiyle okunan sesli kitaplar bunlara örnek olabilir. Veya herhangi bir şarkıyı en sevdiğiniz sanatçı tarafından tekrar söylenmesini de sağlayabilirsiniz. Tabi bunlar için şimdilik biraz zaman gerekiyor.



    VALL-E'nin ses örnekleri için burayı ziyaret edebilirsiniz.




    Kaynak:https://www.windowscentral.com/software-apps/microsofts-vall-e-can-imitate-any-voice-with-just-a-three-second-sample
    Kaynak:https://aitopics.org/doc/news:1D5D0B90







  • Şöyle düşünelim:

    Bunlar yayınlananlar... demek ki arkada daha neler neler var?
  • Digital ortamda hazırlanan herbirşey iz bırakır.
  • V4LKyR V kullanıcısına yanıt
    Cia mossad bunu zaten 10 yıldan fazla zamandır kullanıyor. Şimdi ele ayağa düşmeye başladı.

    Artık sosyal medyada her duyduğuna gördüğüne inanan çok büyük vebal altına giriyor. Çok tehlikeli zamanlardayız.
  • Yapay zekanın konuşması anlaşılıyor, tonlama filan yapıyor doğru ama arkadaki sesleri dinleyin ne demek istediğimi anlayacaksınız.
  • Harika. Yıllardır halka indirgenmesi bekleniyordu. Artık daha kaliteli dublajlar görecez. Özellikle de yeşilçam karakterlerini yeniden görmeyi çok isterim.
  • quote:

    Orijinalden alıntı: Nevfel

    Cia mossad bunu zaten 10 yıldan fazla zamandır kullanıyor. Şimdi ele ayağa düşmeye başladı.

    Artık sosyal medyada her duyduğuna gördüğüne inanan çok büyük vebal altına giriyor. Çok tehlikeli zamanlardayız.

    Çok doğru... Yossi kohen'e de bundan verdikleri bilinen bir gerçek. Yoksa bu kadar gülünecek ne olabilirdi ki?

  • Teknolojiyi geliştiren ana unsur askeriye ve istihbarat olduğu ve son kullanıcıya aktarılan kısım hep bir kaç adım geriden geldiği için, istihbaratların elinde çok daha gelişmişi zaten vardır.
  • oyunlarda otomatik türkçe dublaj için kullanılabilir ve çok da güzel olur aslında.
  • Nevfel kullanıcısına yanıt
    Ben de diyorum bu "Cia mossad" ne yeni bir yapay zeka mı google'dan aratayım :))))))
  • Türkçe dublaj yapabilirsek güzel olur
  • Bence şimdi herkesin aklına direkt aynı şey geldi, RTE'nin ve oğlunun yıllar evvel yayınlanan ses kayıtları gerçek miydi sahte miydi?
  • Benim sesimi taklit edemez sürekli değişen bir ses tonum var bende anlamadım gitti
  • Aşırı iyi yapmışlar tebrikler diyorum.

  • monacomen kullanıcısına yanıt

    Gerçek.

  • monacomen kullanıcısına yanıt

    hangi ses kaydı? ne içeriyordu?

  • dreamblue35 D kullanıcısına yanıt

    Üstteki gerçek diyen yazara sormak lazım.

  • monacomen kullanıcısına yanıt
    Microsoft bu sefer korkuttu: Her türlü sesi taklit edebilen VALL-E duyuruldu
  • monacomen kullanıcısına yanıt

    hadi soralım o zaman...

  • TR_Vay kullanıcısına yanıt

    nerden gerçek olduğunu teyid edebiliyorsunuz var mı elinizde doğrulayabilecek orjinal ses kaydı?

  • 
Sayfa: 12
Sayfaya Git
Git
sonraki
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.