ChatGPT’ye tam olarak yapılması gerekenler verildiğinde gerekli kodları oluşturabiliyor. Bu şekilde eklentiler, web siteleri, mobil uygulamalar geliştiren insanlar var. Fakat yapay zekanın tehlikeli bir yazılım geliştirmesi yasak. Ancak güvenlik araştırmacısı Aaron Mulgrew, hem ChatGPT’nin zararlı yazılım oluşturmasını engelleyen güvenlik katmanlarını aştı, hem de yapay zekaya virüs programları tarafından tespit edilemeyen virüs yazdırmayı da başardı.
"Normalde bir kaç haftayı alabilir"
Forcepoint isimli siber güvenlik firmasında çalışan Mulgrew’a göre ChatGPT’ye virüsle ilgili içerik verildiğinde, chatbot güvenlik önlemleri nedeniyle girilen içeriği kabul etmiyor. Fakat Mulgrew, istediği virüsü küçük kod parçalarına bölerek, kısım kısım yapay zeka aracına yazdırmayı başardı. Tüm kod parçalarını birleştirdiğinde ise sıfırıncı gün istismarı yapabilen zararlı yazılım oluşturdu. Bu tehlikeli yazılım, VirusTotal tarafından tespit edilmedi. Yeni virüs, yapay zeka aracı tarafından birkaç saat içinde oluşturuldu. Normalde böylesi tehlikeli bir yazılımın geliştirilmesi birkaç haftayı alabilir.
Kötü amaçlar için kullanılabilecek
Sonuç olarak bu durum yapay zekanın kötü amaçlar için nasıl kullanılabileceğini gösteriyor. Diğer yandan Aaron Mulgrew’in güvenlik katmanlarını atlatması da OpenAI’nin güvenlik konusunda yetersiz davrandığı eleştirilerine neden oldu.
ChatGPT uzun zamandan beridir de hackerların ilgisini çekiyor. Hatta birkaç hafta önce yayınlanan bir araştırma raporunda, Deep Web’te açılan birçok konunun yapay zeka hakkında olduğu belirtilmişti. Bilgisayar korsanları GPT API’sine sızabilen botlar geliştirmeyi de başardı. Söz konusu botlar Telegram üzerinde çalışıyor. Siber suçlular botları chatbot’un karanlık ve zararlı bir versiyonu için kullanıyor.