Teknolojik tuzaklardan nasıl korunmalıyız?

Dep Faceit ve Deepfake gibi ileride insanlar için büyük problemler oluşturabilecek teknolojik gelişmeler karşısında mağduriyetler yaşamamak için uzmanlar, insanların özellikle her açıdan fotoğraflarını paylaşmamaları gerektiğini belirtiyor.

Ekleme: 07.03.2022 09:20:09 / Güncelleme: 07.03.2022 09:58:32 / Güncel / Ağrı Haberleri
Destek için  Haberin Videosunu İzle

Gün geçtikçe gelişen teknoloji insan hayatını kolaylaştıran bir nimet olduğu kadar bu alanları manipüle etmek isteyenler için ise fırsatlar oluşturuyor.

Uzmanlar, gelişen teknoloji ile birlikte insanlar için oluşabilecek mağduriyetlerin önüne geçebilmek için sosyal medya paylaşımlarında dikkatli davranmanın önemli olduğunu belirtiyor.

Ağrı İbrahim Çeçen Üniversitesi Bilgisayar Bilimleri Uygulama Araştırma Müdürü Öğretim Görevlisi Mehmet Mehdi Karakoç, Dep Faceit (Derin Yüz) ve Deepfake gibi gelişmeler hakkında dikkat edilmesi gerekenleri paylaştı.

Konuşmasına yüz tanımlama sistemlerini tanımlayarak başlayan Karakoç, "Dep Faceit, dediğimiz olay deep learning'ten geliyor, derin öğrenme demek. Çok kabaca yapay zekâ teknikleri ve bazı metotlarla bilgisayarlara öğretmek üzere çalışan bir anabilim dalı olarak düşünelim. Yüz yapay sistemleri, Çin yapay zeka tekniklerinin kullanılması olarak düşünebiliriz. Bu aslında tescilli bir isimdir. Çok bilinen sosyal medya platformunun geliştirdiği bir açık kaynakla herkese açık bir kütüphane aslında, çıkış amacı budur ve başarı oranı yüzde 97-97,5 oranındadır. Bu aslında insanlarda da yüzde 97-98 bandındadır bir fotoğraftan bir yüzü tanıma. O yüzden yüksek başarı ile çalışan yüz tanıma sistemi aslında." dedi.

Karakoç, "Normalde çok eskiden beri kullanılan bir yüz tanıma sistemi ama eskiden kullandığımız bilgisayarlarımızı veya internetlerimiz bu kadar hızlı değildi. Bu işlemler çok uzun sürerdi, şimdi bunlar çok hızlı yapılabiliyor. Mevcut teknolojinin gelişimi ile beraber olarak. Haliyle kullanım artınca, bu nimet bazı riskleri de beraberinde getirebiliyor. Şimdi bazı cep telefonu kilidini açmakta yüz tanıma sistemi kullanılıyor, bazı kurumların girişinde, özel şirketlerin girişinde kartlı veya şifreli giriş yüz tanıma sistemi ile birlikte yapılabiliyor. Veya işte kriminal olayları aydınlatmada yüz tanıma sistemi sıklıkla kullanılıyor." ifadelerini kullandı.

Sosyal medyada her açıdan fotoğraf paylaşmanın risk oluşturabileceğini, bazen bu tarz durumlarda kişinin yapmadığı şeylerle karşı karşıya kalabileceğini hatırlatan Karakoç, "Fakat tek başına kullanıldığı zaman bunların manipüle ihtimalleri de olabiliyor. Özellikle biz sosyal medyada her açıdan çok fazla fotoğraf paylaşabiliyoruz. Bu fotoğraflar alınıp sanki bizmişiz gibi kullanılarak telefon girişlerindeki kilit açmak için kullanılabiliyor. Fotoğraf olduğunda belki çok etkili bir yöntem değil ama birkaç açıdan çekilmiş fotoğrafları alıp modelleyip, üç boyutlu yazıcılardan suretimiz çıkarılabiliyor veya renk başarısı yüksek ve renk tonlaması iyi ayarlanırsa bayağı bizmişiz gibi gözükecek bir yüz ifadesi alınabilecek. Bu türden manipüle edilme riski var." şeklinde konuştu.

Güvenlik kameraları ile bilgilerin kaydedilip kaydedilmediği hususunda da konuşan Karakoç şunları söyledi:

"Kalabalık yerlerde bulunan güvenlik kameralarının çektiği görüntülere halk şüpheli bakıyor, bu programların yazılımını yapan firmalar 'acaba emniyetten bilgilerimizi alıp bizi fişliyorlar mı?' diye sorular sorabiliyorlar, tabi bu durumda haklı olabiliyorlar çünkü güvenemiyoruz. Açık kaynak kodlu yazılımlarda bir problem yok çünkü kodları görebiliyoruz, bu yazılımların ne yaptığını görebiliyoruz. Eğer kaynak kodları kapalıysa yani bunların arka planda ne yaptığını görmüyor, bilmiyorsak her zaman bu risk vardır. Bu riskleri ortadan kaldırabilmek için mümkün olduğunca sosyal medyadan fotoğraf paylaşmamız lazım. Özellikle her açıdan paylaştığımız fotoğraflar nedeni ile artık yüzümüz başkalarının elinde olabiliyor. Ve bu tarz sistemlerin uzmanları bu durumu manipüle edebiliyor, sizin yapmadığınız bir şeyi siz yapmışsınız gibi kendinizi savunmak zorunda kalabiliyorsunuz. Artık çıplak gözle ayırt edilemeyecek montajlamalar yapılabiliyor." (İLKHA)













Haberin Videosunu İzle
İlgili Videolar