Dolandırıcıların yeni tuzağı: Ses ve görüntü klonları

Kaspersky Uzman Veri Bilimcisi Vladislav Tushkanov, yapay zeka ile klonlanan ses ve görüntülere karşı uyardı.

Ekleme: 08.05.2023 15:42:53 / Güncelleme: 08.05.2023 15:44:26 / Bilim & Teknoloji
Destek için 

Son zamanlarda yapay zeka teknolojilerinin gelişmesi ile birlikte ses ve görüntü klonlama araçlarında artış yaşanıyor.

Kaspersky Uzman Veri Bilimcisi Vladislav Tushkanov, deepfake ve ses taklit uygulamaları ile birçok dolandırıcılık faaliyeti gerçekleştirildiğini, bunların engellenmesi için çeşitli önlemlerin alınması gerektiğini söyledi.

Bu konuda özellikle şirketlerin önlem alması gerektiğini vurgulayan Tushkanov, şu ifadeleri kullandı:

Sizi ses taklidi ile dolandırmak isteyenler olabilir. Büyük miktarlarda paralar, 100 bin dolar gibi, sadece bir telefon konuşması ile verilmemeli. Bu tarz tuzaklara düşmemek için çeşitli protokollerin olması lazım.

Bunun yanında eğitim ve farkındalık da çok önemli. Deepfake ve ses taklitlerinin gerçek olduğunu bilirseniz sizi sahte ses ve görüntülerle kandırmaya çalışan insanlara 'Bu konuları telefonda konuşmak istemiyorum. Bana kurumsal e-mail adresinizi verin" diyebilirsiniz.

"Her gün 400 bin zararlı dosya dağıtılıyor"
Makine öğrenmesinin siber saldırılarla mücadelede çok yardımcı bir rol üstlendiğine işaret eden Tushkanov, şunları kaydetti:

Her gün çok fazla oltalama gibi saldırılarla karşı karşıya kalıyoruz. İnternet üzerinden her gün 400 bin yeni kötü amaçlı dosya dağıtılıyor. Herhangi bir insan bu kadar fazla saldırı ile başa çıkamaz.

ChatGPT'nin oltalama saldırılarını tespit edebildiği bir deney gerçekleştirdik. ChatGPT başarılı bir şekilde oltalama saldırısını keşfetti. Ancak ChatGPT'nin bazı hatalar yaptığını görebiliyoruz. Bu yüzden bu sistemlere tamamen güvenmesem de bir potansiyel taşıdıklarını düşünüyorum.