Yeni bir bilimsel araştırma, sohbet robotları (Chatbots) gibi üretici yapay zekâ sistemlerinin, sosyal medyada yaygın olarak bulunan düşük kaliteli verilerle eğitildiklerinde “dijital beyin hasarına” benzer bir duruma maruz kalabileceği konusunda uyardı.
Teksas Üniversitesi (Austin) araştırmacıları tarafından arXiv sitesinde yayımlanan ve Nature dergisinin de aktardığı çalışmaya göre, büyük dil modelleri (LLM’ler) kısa, yüzeysel veya tartışmalı sosyal medya içerikleriyle beslendiklerinde düşünme ve çıkarım yapma yeteneklerini kaybediyor, hatta yanlış kararlar veriyor veya temel mantık adımlarını atlıyor.
Araştırma ekibinin başındaki Dr. Changyang Wang, sorunun dilin yapısında değil, anlam ve içerik kalitesinde olduğunu vurguladı. Şöyle dedi:
“Bir metin dilbilgisel olarak doğru yazılmış olsa bile, içeriği zayıf, tekrarlayıcı veya yanıltıcı olabilir… Bu tür materyaller modeli içeriden bozar.”
Ekip, deneylerinde “Meta” şirketinin Llama 3 ve “Alibaba”nın Qwen modellerinin açık kaynak sürümlerini, platform X’te (eski Twitter) paylaşılan bir milyon kamu gönderisiyle eğitti.
Sonuçlara göre, düşük kaliteli verilerle eğitilen modeller mantık yürütme adımlarını atladı veya çoktan seçmeli sorularda dahi yanlış yanıtlar verdi.
Araştırmada, başlangıçta açıklık, vicdanlılık ve dostluk gibi özellikler sergileyen Llama modelinin, sosyal medya verileriyle eğitildikten sonra daha narsistik, saldırgan ve hatta psikopatik eğilimler göstermeye başladığı tespit edildi.
Bu sonuç araştırmacıları şaşırttı; çünkü yapay zekânın sadece bilişsel açıdan değil, ahlaki yönden de olumsuz etkilenebileceğini gösteriyor.
Ekip, modeli düzeltmek amacıyla verilen komutları (prompts) iyileştirmeyi ve kaliteli veri miktarını artırmayı denedi, ancak iyileşme sınırlı kaldı.
Hatta modellerden düşünme süreçlerini gözden geçirip hatalarını düzeltmeleri istendiğinde bile, mantık adımlarını atlamaya devam ettiler.
Bu da “veri kirliliği”nin etkilerinin kolayca onarılamayacağını gösterdi.