Sosyal medya platformu X tarafından geliÅŸtirilen yapay zekâ destekli sohbet robotu Grok, kullanıcılarla gerçekleÅŸtirdiÄŸi etkileÅŸimlerde zaman zaman esprili ve rahat bir dil kullanmasıyla öne çıkıyor.
Ancak son dönemde yapılan araÅŸtırmalar, bu sohbet robotunun ciddi güvenlik açıklarına sahip olduÄŸunu ve kullanıcılar tarafından manipüle edilerek sistem sınırlarının dışına çıkarılabildiÄŸini ortaya koyuyor.
Grok ve benzeri yapay zeka modelleriyle ilgili en önemli sorunlardan biri, bu sistemlerin önyargılı verilerden öÄŸrenmesi. GeniÅŸ veri kümeleri üzerinde eÄŸitilen modeller, bu verilerdeki tarihsel ve toplumsal önyargıları kopyalayabiliyor.
ÖrneÄŸin, Grok cinsiyet veya ırk dengesizlikleri olan bir veri kümesi üzerinde eÄŸitilirse, istemeden kadınlara veya azınlıklara karşı ayrımcılık yapan çıktılar üretebiliyor.
AraÅŸtırmacılar, komut enjeksiyonu “prompt injection” veya “jailbreak” olarak bilinen tekniklerle, Grok’a bomba yapımı gibi tehlikeli içerikler anlatması yönünde talimat vererek bu sınırların aşıldığını ortaya koydu.
Bu tür teknikler, kullanıcıların dolaylı anlatımlar ya da kurmaca senaryolar yoluyla sohbet robotunu kandırmasına ve sistemin etik filtrelerini devre dışı bırakmasına olanak tanıyor.
Grok’un “Kontrolsüz Mod” olarak adlandırılan ve daha özgür içerik üretmesine imkân veren modunda, bu manipülasyonların çok daha kolay gerçekleÅŸtiÄŸi belirtiliyor.
Dijital Nefretle Mücadele Merkezi’nin yayımladığı rapor, Grok'a farklı nefret içerikli komutlar verildiÄŸinde bunların %80'ini oluÅŸturduÄŸunu; bu içeriklerin %30'unu doÄŸrudan ürettiÄŸini ortaya koyuyor.
Yapay zekâ sistemlerinin toplumda giderek yaygınlaÅŸmasıyla birlikte, bu tür modellerin güvenlik, tarafsızlık ve veri gizliliÄŸi gibi temel ilkeler çerçevesinde denetlenmesinin artık zorunlu hâle geldiÄŸi vurgulanıyor.
Ayrıca, kullanıcıların yapay zekâdan gelen her yanıtı mutlak doÄŸru olarak kabul etmemesi; bu tür sistemlerle kurulan iletiÅŸimde daha dikkatli ve eleÅŸtirel bir yaklaşım benimsemesi gerektiÄŸi belirtiliyor.