• DOLAR 34.476
  • EURO 36.204
  • ALTIN 2959.803
  • ...
Yapay zeka, siyahileri maymun, Filistinlileri terörist olarak görüyor
Google News'te Doğruhaber'e abone olun. 

Facebook, Twitter, Google gibi büyük şirketler ve çeşitli boyutlardaki sosyal medya platformlarının yazılımlarına yerleştirilen ırkçı algoritmalarla siyahiler maymunla, Filistin kelimesi ise terörle eşleştiriliyor.

Yapay zeka, ırkçılaşabilir mi?
Bilgisayar bilimleri, algoritmalar ve yapay zeka üzerine araştırmalar yapan Cerrahpaşa Tıp Fakültesi, Temel Tıp Bilimleri Bölümü, Biyoistatistik Ana Bilim Dalı Öğretim Üyesi Prof. Dr. Murat Kirişçi, yapay zekanın nasıl ırkçı sistemler haline getirildiği hakkında değerlendirmelerde bulundu.

"Filistin ya da Myanmar gibi bölgelerde ayrımcı algoritmalar var"
AA'nın haberine göre; Prof. Dr. Kirişçi, algoritmaların, programcılarının zihnindeki ayrımcı sistemlere göre çalıştığını belirterek, Filistin ve Myanmar gibi bölgelere yönelik ayrımcı algoritmaların varlığına işaret etti. Kirişçi şöyle devam etti:

"Algoritmalar, beyazların tasarladığı dünyada siyahileri kötüleyecek şekilde çalışıyor. Filistin ifadesi geçtiğinde altyazıda teröristi kullanıyor. Bazı insanları, bazı toplulukları ve hatta bir ülkeyi yok sayan algoritmalar var. Myanmar'ı bir yer olarak ortaya koymayan, orada yaşayanları insan olarak da tanımlamayan çok sert algoritmaların çalıştığı haber siteleriyle karşılaştık. Bu sürekli oluyor mu? Evet, oluyor. Zaten sorun da buradan çıkıyor. O kadar çok ırkçı söylem var ki bir anda kriminal olaylar algoritmalarla temize çıkartılıp masum olaylar kirletiliyor."

"Floyd'un katili polis, masum gibi gösterildi"
ABD'de polis şiddeti sonucu hayatını kaybeden siyahi George Floyd olayının ardından bazı ırkçı yazılımların fail polis memurunu masum gösterdiğini aktaran Kirişçi, "Floyd olayını tersten sunan algoritmaların az veya çok olmasından ziyade bazı algoritmaların masum bir mantıkta çalışmadığını fark etmek önemli. Siz ne yaparsanız yapın algoritmalar onu yazanın zihnindeki ayrımcı sistemlere göre çalışıyor." ifadesini kullandı.

"Algoritma ya da yapay zeka değil onları programlayanlar ırkçı"
Kirişçi, yapay zekanın en basit haliyle "insanın düşünme biçimini makinalara öğretmeye çalışma" şeklinde tanımlanabileceğini kaydederek, bu nedenle teknolojik ürünlere "akıllı" denmesinin doğru olmadığını ifade etti.

Irkçı algoritmaları tartışırken aslında ırkçı zihniyetlerin tartışılması gerektiğinin altını çizen Kirişçi, "Irkçı olan veya ayrımcılık yapan aslında algoritmalar değil. Tırnak içinde 'İnsanı yok edeceğini iddia ettiğimiz algoritmalar' mümkün değil. Biz bu meseleyi konuşurken onları üreten, bu fikri veren ve onlara nasıl düşünmesi gerektiğini anlatan insanın sorunlarını tartışmış oluyoruz. Aksi takdirde gerçek kişiyle mücadele etmek veya karşı durmak yerine soyut, belirsiz bir şeyle uğraşıyoruz." dedi.

Kirişçi, arama çubuğuna "ape" (maymun) yazıldığında eski ABD Başkanı Barack Obama'nın eşi Michelle Obama'nın fotoğrafının çıktığı algoritma çalışmasının tepkilere neden olduğunu aktararak, "Barack Obama'nın ABD Başkanı olduğu dönemde Beyaz Sarayı 'zenci sarayı' olarak tanımlayan algoritmalar var. Bu ırkçılığı üreten yapıyı bir makine niye yapsın ki? Bir algoritma veya makine kendi kendine sizi veya beni niye kötülesin? Esasında makinenin böyle bir imkanı yok fakat onun arkasındaki düşünce dünyasını, yani akıl eden iradeli varlığın algoritmayı bu şekilde organize etmesi mümkün." şeklinde konuştu.

"Sanal dünya aslında korkunç baskıcı, ırkçı ve ayrımcı"
Algoritmaların, haber siteleri ve sosyal medya platformlarında ırkçı ve manipülatif amaçlarla kullanıldığına dikkati çeken Kirişçi, şunları dile getirdi:

"Sosyal medyada üretilen algoritmalar, sizin yaptığınız çok güzel bir çalışma eğer kendilerini kodlayanlar tarafından rahatsız edici görülüyorsa, sizi platformun en arkasına atıyor. Sizden söz edildiğinde rastlanmayacak şekilde bloke ediyor. İnsanlara faydalı birçok şey ürettiğinizi varsayalım, eğer yaptığınız işlerin bir endüstriye zarar verdiği düşünülüyorsa blokaj uygulanıyor. Aslında siz halen orada varsınız ama önünüze perde çekiliyor ve arandığınız zaman bile bulunmuyorsunuz. Tırnak içinde özgür olan bu sanal dünya aslında korkunç baskıcı, ırkçı ve ayrımcı bir sistem. Sadece bunu kurgulayanlar kendilerini çok iyi gizlemeyi başarmış."

"Z kuşağı da geride kaldı, Alfa nesli geldi"
Kirişçi, küçük yaştaki çocukların bile akıllı telefonları bilgi kaynağı olarak kullanabildiğini belirterek, "Z kuşağı da geride kaldı. Dijital dünyanın içine doğan bu çocuklara 'Alfa nesli' diyoruz. Çocuk sosyal medyanın içine doğmuş. Dolayısıyla oradan yaşanan olayları öğreniyor ve hayatını ona göre organize ediyor. Çocukların biyolojik annesi veya babasıyız ama hayatlarını oraya göre organize ediyorlar. Bunların hepsi bir algoritmalar zinciriyle çalışıyor. Çocuklar ırkçı, ayrımcı veya ideolojik amaçlarla da kullanılan bu algoritmalar tarafından eğitiliyor." diye konuştu.

"Irkçılık öğretilen yapay zeka insan yaşamına tehdit oluşturabilir"
Yeni veri kaynaklarından elde edilen daha büyük, daha karmaşık veri kümelerini ifade eden "Big Data" (Büyük Veri) kavramı ve ayrımcılık konusuna değinen Kirişçi, "Big Data'nın kendisinde de algoritma akışı var. Bir değil, binlerce hatta milyonlarca algoritma çalışıyor. O algoritmalar da kim ne organize ederse veri ona göre size karşılık veriyor. Bir zincir gibi düşünürsek, halkalarının herhangi bir yerinde yine insandan bulaşan ayrımcılık noktası varsa birileri oraya müdahil olarak o verileri ayrımcı ve ırkçı şekilde organize edebilir." değerlendirmesinde bulundu.

Kirişçi, yapay zekanın hayatın pek çok alanında kullanıldığı gibi mahkemelerde kullanılması için çalışmalar yapıldığını anlatarak, mahkeme modellemesinde kullanılacak yapay zekanın suçlu olan beyaz kişiyi masum, masum olan siyahiyi ise suçlu kabul edilebileceğini söyledi. Kirişçi şunları kaydetti:

"İnsanlar nasıl karar verirken ırkçı ve ayrımcı tavır gösterebiliyorsa yapay zekaya 'beyaz ve siyahi ayrımını' ırkçı biçimde anlattığınız andan itibaren mahkeme süreçlerinin hepsi aynı sonucu verecektir. Binlerce hakimden belki birkaçı ayrımcılık yapacak belki de buna hiç rastlamayacak. Aynı eğilimdeki bir makina ile karşılaştığınızda bütün davalarda aynı ayrımcılıkla karşılaşacaksınız. Bu aslında insan yaşamını tehdit eden bir durum ama aslında insan yaşamını tehdit eden algoritma ve makinalar değil, akıllı ve iradeli varlık olan insan."

Bu haberler de ilginizi çekebilir