Yapay Zeka Devlerinden xAI’a Güvenlik Eleştirisi
Elon Musk’ın kurucusu olduğu yapay zeka girişimi xAI, sektörün önde gelen şirketleri OpenAI ve Anthropic araştırmacılarının hedefi oldu. Uzmanlar, xAI’ın yeni Grok 4 modeline ait güvenlik protokolleri ve test süreçleri hakkında şeffaf davranmamasını “sorumsuzluk” olarak nitelendirerek ciddi endişelerini dile getirdi.
Akademik ve Sektörel Tepkiler
Harvard kökenli OpenAI araştırmacısı Prof. Boaz Barak, xAI’ın mühendislik yeteneklerini takdir etse de güvenlik konusundaki yaklaşımlarını eleştirdi.
“xAI’daki mühendisleri takdir ediyorum, fakat güvenlik uygulamaları ihmalkarlık içeriyor.”
Barak, Grok 4’ün geliştirme aşamalarındaki belirsizliğin, modelin potansiyel riskleri hakkında soru işaretleri yarattığını belirtti. Anthropic araştırmacısı Samuel Marks da benzer bir görüşü paylaştı.
“OpenAI ve Google’ın da eksikleri var, ama en azından riskleri belgeliyorlar. xAI bunu yapmıyor.”
Söylemler ve Eylemler Arasındaki Uçurum
Tartışmalar, Grok sohbet robotunun X platformunda verdiği skandal yanıtlar ve Grok 4 ile sunulan anime kızı ve panda avatarları gibi olaylarla daha da alevlendi. Sektördeki pek çok uzman, Elon Musk’ın yıllardır yapay zeka güvenliğine yaptığı vurgu ile xAI’ın mevcut uygulamaları arasındaki çelişkiye dikkat çekiyor. Bu durum, şirketin güvenlik konusundaki ciddiyetinin sorgulanmasına neden oluyor.
Yasal Yaptırımlar ve Şeffaflık Çağrısı
ABD’de bazı eyaletlerde, yapay zeka şirketlerinin güvenlik raporlarını kamuoyuyla paylaşmasını zorunlu kılan yasa tasarıları üzerinde çalışılıyor. Araştırmacılar, mevcut koşullarda Grok 4 modelinin test süreçleri, güvenlik denetimleri ve potansiyel tehlikelerine dair kamuoyunun hiçbir net bilgiye sahip olmadığını vurguluyor. Bu şeffaflık eksikliği, teknolojinin güvenli geleceği hakkındaki endişeleri artırıyor.