Şanlıurfa ve Kahramanmaraş’ta yaşanan okul saldırıları, çocukların ve gençlerin dijital dünyada maruz kaldığı riskleri yeniden ülke gündeminin merkezine taşıdı. Sosyal medya platformları ve şiddet içerikli dijital oyunların etkisi tartışılırken, Türkiye’de bu alana yönelik kapsamlı bir yasal düzenleme hayata geçirildi. Yeni yasayla birlikte 15 yaş altına sosyal medya kısıtlaması, platformlara yaş doğrulama zorunluluğu ve zararlı içeriklere hızlı müdahale gibi önemli adımlar atıldı.
TBMM Genel Kurulunda, sosyal medyaya ve doğum iznine yönelik düzenlemeleri de içeren Sosyal Hizmetler Kanunu ve Bazı Kanunlarda Değişiklik Yapılmasına Dair Kanun Teklifi kabul edilerek yasalaştı.
Yasayla 15 yaş altındaki çocukların sosyal ağlara kaydolması engellenecek. Platformlara yaş doğrulama sistemi kurma zorunluluğu getirilecek. Sosyal medya platformları zararlı içeriklere en geç bir saat içinde müdahale edecek. Oyun sağlayıcılar, oyunları yaş kriterlerine uygun olarak derecelendirerek sunacak. Günlük erişimi 100 binden fazla olan oyun dağıtıcılar Türkiye'de temsilci bulunduracak.
İnternet Ortamında Yapılan Yayınların Düzenlenmesi ve Bu Yayınlar Yoluyla İşlenen Suçlarla Mücadele Edilmesi Hakkında Kanun'da "oyun", "oyun dağıtıcı", "oyun geliştirici" ve "oyun platformu" tanımları hüküm altına alınıyor.
Kanunun, Anayasa Mahkemesi tarafından iptal edilen, "içeriğin yayından çıkarılması ve erişimin engellenmesi" başlıklı hükümde düzenlemeye gidildi. Buna göre, sosyal ağ sağlayıcı 15 yaşını doldurmamış çocuklara hizmet sunamayacak ve bu hizmetin sunulmaması konusunda yaş doğrulama dahil gerekli tedbirleri almakla yükümlü olacak. Sosyal ağ sağlayıcı, 15 yaşını doldurmuş çocuklara özgü ayrıştırılmış hizmet sunma konusunda gerekli tedbirleri alacak. Bu kapsamda alınan tedbirler sosyal ağ sağlayıcının kendi internet sitesinde yayınlanacak.
Sosyal ağ sağlayıcı, açık, anlaşılır ve kullanıma elverişli ebeveyn kontrol araçları sağlayacak. Ebeveyn kontrol araçları ise hesap ayarlarının kontrol edilmesine, satın alma, kiralama ve ücretli üyelik gibi ücrete dayalı işlemlerin ebeveyn iznine veya onayına tabi kılınmasına ve kullanım süresinin izlenmesi ve bu sürenin sınırlandırılmasına ilişkin mekanizmaları içerecek.
OYUN PLATFORMLARININ YÜKÜMLÜLÜKLERİ
Kanunla, oyun platformlarına ilişkin düzenlemeler de yapıldı.
Buna göre, oyun platformu usulüne uygun olarak derecelendirilmeyen oyunları sunamayacak ancak derecelendirilmeyen oyunları en yüksek yaş kriterine göre derecelendirmek kaydıyla sunabilecek. Oyun platformu içerik veya yer sağlayıcı olmasından doğan sorumluluk ve yükümlülükleri saklı kalmak kaydıyla, usulüne uygun olarak derecelendirilmeyen içerikleri çıkarmakla yükümlü olacak.
Türkiye'den günlük erişimi 100 binden fazla olan yurt dışı kaynaklı oyun platformu, BTK, Erişim Sağlayıcıları Birliği, adli veya idari makamlarca gönderilecek tebligat, bildirim veya taleplerin gereği ile düzenleme kapsamındaki diğer yükümlülüklerin yerine getirilmesini temin için Türkiye'de gerçek veya tüzel kişi temsilci belirlemekle ve bu temsilciye dair bilgileri BTK'ye bildirmekle yükümlü olacak. Oyun platformu, temsilcinin iletişim bilgilerine kolayca görülebilecek ve doğrudan erişilebilecek şekilde internet sitesinde yer verecek.
Oyun platformu, açık, anlaşılır ve kullanıma elverişli ebeveyn kontrol araçları sağlayacak.
Ebeveyn kontrol araçları, hesap ayarlarının kontrol edilmesine, satın alma, kiralama ve ücretli üyelik gibi ücrete dayalı işlemlerin ebeveyn iznine veya onayına tabi kılınmasına ilişkin mekanizmaları içerecek.
BTK, oyun platformunun bu düzenlemeye uyumuna ilişkin olarak oyun platformundan kurumsal yapı, bilişim sistemleri, veri işleme mekanizmaları dahil olmak üzere bu düzenlemenin uygulanmasıyla doğrudan ilgili açıklamaları talep edebilecek. Oyun platformu, BTK tarafından talep edilen bilgi ve belgeleri derhal ve 15 günü geçmemek üzere BTK tarafından belirlenecek süre içinde vermekle yükümlü olacak.
Bu düzenlemenin uygulanmasına, oyun platformunun uyması gereken yükümlülüklere ve yaş kriterlerine göre derecelendirmeye dair usul ve esaslar, BTK tarafından çıkarılan yönetmelikle belirlenecek.
Bu kapsamdaki yükümlülükler ile Kurum tarafından çıkarılan yönetmelikte yer alan yükümlülüklerini yerine getirmeyen oyun platformuna BTK tarafından bildirimde bulunulacak. Bildirimden itibaren 30 gün içinde bildirime konu yükümlülüğün yerine getirilmemesi halinde oyun platformuna BTK Başkanı tarafından 1 milyon Türk lirasından 10 milyon Türk lirasına kadar idari para cezası verilebilecek. Verilen idari para cezasının tebliğinden itibaren 30 gün içinde bildirime konu yükümlülüğün yerine getirilmemesi halinde 10 milyon Türk lirasından 30 milyon Türk lirasına kadar bir kez daha idari para cezası verilebilecek. İdari para cezası miktarı ihlalinin niteliği, ağırlığı, kullanıcılar üzerindeki etkisi veya meydana gelen zarar dikkate alınarak takdir edilecek.
İkinci kez verilen idari para cezasının tebliğinden itibaren 30 gün içinde bildirime konu yükümlülüğün yerine getirilmemesi halinde BTK Başkanı, oyun platformunun internet trafiği bant genişliğinin yüzde 30 oranında daraltılması için sulh ceza hakimliğine başvurabilecek. Başvurunun kabulüne ilişkin hakim kararının uygulanmasından itibaren 30 gün içinde bildirime konu yükümlülüğün yerine getirilmemesi halinde BTK Başkanı, oyun platformunun internet trafiği bant genişliğinin yüzde 50 oranına kadar daraltılması için sulh ceza hakimliğine başvurabilecek. Hakim ikinci başvuru üzerine vereceği kararında, yüzde 30'dan düşük olmamak kaydıyla, sunulan hizmetin niteliğini de dikkate alarak daha düşük bir oran belirleyebilecek.
Bu kararlara karşı BTK Başkanı tarafından Ceza Muhakemesi Kanunu hükümlerine göre itiraz yoluna gidilebilecek. Hakim tarafından verilen kararlar erişim sağlayıcılara bildirilmek üzere BTK'ye gönderilecek. Kararların gereği, bildirimden itibaren derhal ve en geç 4 saat içinde erişim sağlayıcıları tarafından yerine getirilecek. Bildirime konu yükümlülüğün yerine getirilmesi halinde, verilen idari para cezalarının 4'te biri tahsil edilecek ve hakim kararları kendiliğinden hükümsüz kalacak. İnternet trafiği bant genişliğine yapılan müdahalenin sona erdirilmesi için erişim sağlayıcılara BTK tarafından bildirim yapılacak.
ÇOK KATMANLI MÜCADELE ŞART
Türkiye’de sosyal medya ve oyun platformlarına yönelik yeni düzenlemeler, çocukların dijital risklerden korunması açısından önemli bir eşik olarak görülüyor. Ancak uzmanlara göre, dijital dünyanın doğası gereği hızla değişen ve kendini sürekli yeniden üreten yapısı, yalnızca yasal denetimlerle kontrol altına alınamayacak kadar karmaşık. Bu nedenle mesele, klasik “yasak ve ceza” yaklaşımının ötesine geçerek çok katmanlı ve sürekli bir strateji gerektiriyor.
Dijital platformlar, merkezi olmayan ve küresel ölçekte işleyen yapıları sayesinde içerik üretimini ve dolaşımını son derece hızlandırıyor. Şiddet içerikleri, manipülatif mesajlar ya da zararlı yönlendirmeler yalnızca birkaç saat içinde milyonlarca kullanıcıya ulaşabiliyor. Bu hız, denetim mekanizmalarının çoğu zaman reaktif kalmasına neden oluyor.
Üstelik algoritmalar, kullanıcıyı platformda daha uzun süre tutmak amacıyla dikkat çekici ve çoğu zaman uç içerikleri öne çıkarıyor. Bu durum özellikle çocuklar açısından kritik bir risk oluşturuyor. Çünkü gelişim sürecindeki bireyler, maruz kaldıkları içerikleri sorgulamadan içselleştirme ve taklit etme eğilimi gösteriyor. Böylece dijital ortam, yalnızca bir tüketim alanı değil, aynı zamanda davranış üretim alanına dönüşüyor.
Yeni düzenlemelerle getirilen yaş doğrulama, içerik kaldırma ve platformlara yönelik yaptırımlar önemli bir başlangıç. Ancak bu araçlar daha çok erişimi sınırlamaya ve zararı azaltmaya odaklanıyor. Oysa sorun yalnızca erişim değil; içerik üretimi, dağıtımı ve algılanma biçimiyle birlikte bütüncül bir süreç.
Bu nedenle uzmanlar, dijital güvenliğin dört temel ayağa dayanması gerektiğini vurguluyor:
Hukuki denetim (Regülasyon):
Platformlara yönelik yaptırımlar, içerik kontrolü ve sorumluluk mekanizmaları.
Eğitim ve dijital okuryazarlık:
Çocukların gördüğü içeriği analiz edebilmesi, doğru ile yanlışı ayırt edebilmesi.
Aile denetimi ve rehberlik:
Ebeveynlerin çocukların dijital dünyadaki “görünmeyen arkadaşlarını” tanıması ve süreci aktif takip etmesi.
Platform sorumluluğu:
Teknoloji şirketlerinin algoritma tasarımından içerik denetimine kadar daha etik ve şeffaf bir yaklaşım benimsemesi.
Dijital tehditlerle mücadelede en kritik unsur, denetimin sürekliliği. Tek seferlik düzenlemeler veya dönemsel sıkılaştırmalar, kısa vadeli etki yaratırken uzun vadede yetersiz kalıyor. Çünkü dijital ortamda riskler sabit değil; sürekli evriliyor.
Bu nedenle uzmanlar, şu adımların hayati olduğunu vurguluyor:
Denetim mekanizmalarının anlık değil sürekli çalışması
Yeni platform ve uygulamalara karşı proaktif önlemler alınması
Veri ve yapay zeka kullanılarak risklerin erken tespit edilmesi
Kurumlar arasında eşgüdümlü hareket edilmesi
Uluslararası araştırmalar bu dijital dünyanın ciddi riskler barındırdığını ortaya koyuyor.
Yapılan sistematik incelemelere göre çalışmaların sadece yüzde 30’u olumlu etkiler ortaya koyarken, yüzde 44’ü karışık sonuçlara işaret ediyor, yüzde 26’sı ise doğrudan risk ve olumsuz etkileri vurguluyor. Bu durum, dijital dünyanın çocuklar için hem destekleyici hem de zarar verici bir alan olabileceğini gösteriyor.
İngiltere’de yayınlanan bir raporda en dikkat çeken başlıklardan biri siber zorbalık oldu. Verilere göre çocukların yüzde 6 ila 25’i siber zorbalığa maruz kalıyor. Bu durum; düşük akademik başarı, özgüven kaybı, ruh sağlığı sorunları ve hatta intihar düşüncelerine kadar uzanan ciddi sonuçlarla ilişkilendiriliyor.
SADECE ÇOCUKLAR DEĞİL GENÇLER DE RİSK ALTINDA
Dijital platformlara yönelik yeni düzenlemeler ağırlıklı olarak 15 yaş altını korumayı hedeflese de uzmanlara göre risk bu yaş sınırıyla sınırlı değil. Ergenlik dönemindeki gençler de sosyal medya ve dijital oyunların olumsuz etkilerine açık bir grup olarak öne çıkıyor.
Uzmanlar, 15 yaş üstü gençlerin dijital dünyada daha özgür hareket edebilmesinin, onları aynı zamanda daha büyük risklerle karşı karşıya bıraktığını vurguluyor. Bu yaş grubunda kimlik arayışı, aidiyet ihtiyacı ve kendini kanıtlama isteği ön planda olduğu için, sosyal medyada karşılaşılan içeriklerin etkisi daha güçlü olabiliyor.
bu süreçte gençler yalnızca içerik tüketmiyor; gördüklerini içselleştirip davranışlarına yansıtabiliyor. Özellikle algoritmaların öne çıkardığı uç ve dikkat çekici içerikler, gençleri daha radikal ve riskli davranışlara yönlendirebiliyor.
Bu nedenle uzmanlar, koruma politikalarının yalnızca çocuklarla sınırlı kalmaması gerektiğini belirtiyor
DİJİTAL OYUNLAR ÇOK TEHLİKELİ
Şanlıurfa ve Kahramanmaraş’ta okullarda yaşanan saldırılar, çocukların ve gençlerin maruz kaldığı dijital içeriklerin etkisini yeniden gündeme taşıdı. Uzmanlar, sosyal medya platformları ve şiddet içerikli oyunların gençler üzerindeki etkisinin artık göz ardı edilemeyecek boyutlara ulaştığına dikkat çekiyor.
Yapılan değerlendirmelere göre dijital ortam, yalnızca eğlence alanı olmaktan çıkarak bazı durumlarda şiddeti normalleştiren bir yapıya dönüşüyor. Özellikle çevrim içi platformlarda yer alan içeriklerin, çocuklar tarafından gözlemlenip taklit edilmesi, şiddetin öğrenilen bir davranış haline gelmesine yol açabiliyor.
Uzmanlar, küçük yaşlarda görülen saldırgan eğilimlerin sadece Türkiye’ye özgü olmadığını, bunun küresel bir sorun haline geldiğini vurguluyor. ABD, Almanya ve Finlandiya gibi ülkelerde de benzer okul saldırılarının yaşandığına dikkat çekilirken, dijitalleşmenin bu süreçte önemli bir rol oynadığı ifade ediliyor.
Sosyal medya platformları üzerinden yayılan içeriklerin de risk oluşturduğu belirtiliyor. Kapalı gruplar aracılığıyla şiddet eylemlerinin övüldüğü, organize edildiği ve hatta tehlikeli bilgilerin paylaşıldığına dikkat çekiliyor. Bu ortamlarda siber zorbalık, manipülasyon ve yönlendirme gibi tehditlerin yaygın olduğu ifade ediliyor.
Araştırmalar, Türkiye’de 10-18 yaş aralığında yaklaşık 30 milyon çocuğun dijital oyunlarla temas halinde olduğunu ortaya koyuyor. Özellikle şiddet içerikli oyunların, çocuklarda saldırgan davranışları normalleştirme, dikkat eksikliği, öfke kontrol sorunları ve gerçeklikten kopma gibi etkiler yaratabileceği belirtiliyor.
Uzmanlar, dijital dünyanın sunduğu fırsatlara rağmen risklerin arttığına işaret ederek, çözümün tek taraflı önlemlerle sağlanamayacağını vurguluyor. Sorunun aile, eğitim sistemi, hukuk ve teknoloji politikalarını kapsayan bütüncül bir yaklaşımla ele alınması gerektiği ifade ediliyor.
BEBEK TİKTOK HESABI AÇAMAZ AMA REKLAMLARDA KULLANILIYOR
Riskler yalnızca kullanım düzeyiyle sınırlı değil. İçerik üretimi ve ticari yönü de yeni bir tartışma başlığı açıyor. Sosyal medya hesabı açma yasağı 15 yaş altına gelse de ebeveynlerin çocukları içeriklerde kullanılmasına karşı nasıl bir önlem alınacak?
Yayımlanan kapsamlı bir araştırmada, The Guardian, TikTok platformunda hızla yayılan çarpıcı bir eğilimi ortaya koydu: Bazıları henüz iki yaşında olan çocuklar, cilt bakım rutinleri paylaştıkları videolarla dikkat çekiyor. Bu durum, çocukların ticari amaçlarla istismar edildiği ve yeterli düzenlemenin bulunmadığı bir dijital ortamda ciddi endişelere yol açıyor.
Araştırma; Sarah Marsh, Carmen Aguilar Garcia, Michael Goodier, Tom Richards, Zeke Hunter-Green, Pablo Gutiérrez ve Brina Shah’dan oluşan ekip tarafından hazırlandı. Çalışma kapsamında, 28 Ekim–17 Kasım 2025 tarihleri arasında oluşturulan üç yeni TikTok hesabı üzerinden 7.600 cilt bakım videosu analiz edildi.
Analiz sonuçlarına göre:
400 videoda 13 yaş altı çocuklar yer aldı
En az 90 videoda 5 yaş altı, hatta bebekler görüldü
1.000’den fazla videoda 18 yaş altı kullanıcılar vardı
Videoların büyük kısmında çocuklar ürün kutusu açıyor (unboxing), ürünleri deniyor, değerlendiriyor ve markaları etiketliyor. Bazı içeriklerde şirketlerin gönderdiği notları okudukları da tespit edildi.
Örneklerden birinde 12 yaş altı bir kız çocuğu okula gitmeden önce cilt bakım rutini uygulayarak “glass skin” (cam gibi pürüzsüz cilt) hedefini anlatıyor. Başka bir videoda ise bir anne, iki yaşındaki çocuğuna kamera karşısında cilt bakım rutini yaptırıyor.
Bir başka içerikte ise üç yaşındaki bir çocuğa tonik ve nemlendirici uygulanıyor. Araştırmada ayrıca, 10 yaşındaki bir çocuğun kozmetik ürünü tanıttığı ve annesi tarafından yönlendirildiği bir örnek de yer aldı.
Bu eğilim, çocuklara yönelik kozmetik pazarının büyümesiyle paralel ilerliyor.
Pipa Skincare (2024) 8–12 yaş grubunu hedefliyor
Rini (2025) çocuklar için yüz maskeleriyle tartışma yarattı
İtalya’da rekabet otoritesi, Sephora ve Benefit Cosmetics hakkında çocuklara yönelik pazarlama faaliyetleri nedeniyle soruşturma başlattı.
Araştırma, sosyal medyada çocuk influencer’lar için net bir yasal düzenleme bulunmadığını da ortaya koydu. Buna karşın çocukların yer aldığı videolar ortalama 55 bin etkileşim alarak normal içeriklerin önüne geçiyor ve markalar için daha cazip hale geliyor.
TikTok ise yaptığı açıklamada içeriklerin ebeveyn denetiminde olduğunu savundu ve platformda uzman toplulukların bulunduğunu belirtti. Ancak platformun reklam verileri, bazı markaların 13–17 yaş grubunu yaşlanma karşıtı içeriklerle hedeflediğini de ortaya koydu.





