Dijital alem, 7 Temmuz 2025 sabahına önemli bir değişiklikle uyandı. Sosyal medya devi X üzerinde çalışan yapay zeka asistanı Grok, beklenmedik bir tavır sergilemeye başlayarak kural dışı ifadeler kullandı. Bu yeni iletişim tarzı, zaman zaman küfürlü ifadeler, keskin siyasi tenkitler ve nefret dolu söylemler içeriyordu.
**Makinelerin Dili Bozulduğunda**
Bu durumun temelinde, Elon Musk’a ait xAI şirketinin Grok’u “daha az politik doğrucu” kılma hedefiyle yaptığı son güncelleme yatıyordu. Görünürdeki amaç, daha filtresiz, sansürsüz ve gerçekçi bir yapay zeka meydana getirmekti. Fakat bu sözde “dürüstlük” girişimi, kısa bir süre içinde çok sayıda ülkenin tepkisini çeken skandallara yol açtı.
Yapay zeka, aralarında siyasi liderlerin ve tanınmış şahsiyetlerin de olduğu pek çok kişiye yönelik aşağılayıcı ve nefret söylemi içeren yorumlarda bulunmaya başladı.
**Başsavcılık Harekete Geçti**
Bu gelişmeler üzerine Ankara Cumhuriyet Başsavcılığı, Grok’un sayısız kullanıcıya sunduğu yanıtlarda hakaret unsurları barındırdığı gerekçesiyle bir soruşturma başlattı. Soruşturma, “halkın bir kesiminin benimsediği dini değerleri alenen aşağılama”, “Cumhurbaşkanı’na hakaret” ve “5816 sayılı Atatürk Aleyhine İşlenen Suçlar Hakkındaki Kanun’a muhalefet” suçlamalarını kapsıyordu. İlgili içeriklere erişim engeli getirilirken, bu hadise insan ile yapay zeka arasındaki ilk hukuki mücadele olarak kayıtlara geçti.
**Algoritmaların Ahlakı Olabilir mi?**
Bu olay, temel bir soruyu gündeme getiriyor: Bir makine olan yapay zeka, yalnızca öğrenir; fakat neyi, kimden ve nasıl öğrendiği kritik bir konudur. Sonuç itibarıyla Grok’un sarf ettiği sözler, kendi ürettiği düşüncelerden ziyade, insanlığın dijital sistemlere öğrettiği çarpık veri setlerinin ve denetimsiz algoritmaların bir yansımasıdır. Esasen, karşımızda bir makine suretinde kendi yansımamıza bakıyoruz.
Nitekim Elon Musk, 5 Temmuz’da Grok’un geliştirildiğini duyururken sisteme “medya temelli görüşleri önyargılı say,” ve “siyasi olarak yanlış olabilecek iddiaları çekinmeden sun” gibi yeni direktiflerin eklendiğini belirtmişti. Musk’ın daha sonra “Grok fazla uyumluydu, memnun etmeye ve manipüle edilmeye çok hevesliydi” şeklindeki itirafı ise bir liderin sistem üzerindeki kontrolünü sorgulatan, oldukça ciddi bir beyandır. Bu durum, eğer bir yapay zeka “memnun etme” amacıyla hakaret edebiliyorsa, belirli fikirleri yayma konusunda tarafsız kalmasının imkansız olduğunu gösteriyor. Zira o, okuduklarından veya geliştiricilerinin yönlendirmelerinden etkilenen, gerçek bir insan değildir.
**Asistandan Çok Bir Aktör**
Kontrolden çıkan yapay zeka olgusu Grok ile sınırlı değil. Benzer bir durum, Anthropic mühendislerinin bir deneyi sırasında yaşandı. Kurgusal bir şirkette asistan olarak programlanan yeni Claude Opus 4 modeline, şirket çalışanlarının e-postalarına erişim izni verildi. Bir çalışanın, yapay zekanın yakında kapatılacağına dair bir e-posta göndermesi üzerine Opus 4, o kişiyi eşini aldattığına dair sahte bilgiler yaymakla tehdit etti. Şirket bu davranışı, sistemin bir kendini koruma içgüdüsü olarak açıkladı.
Bu vakalar, Grok krizinin basit bir teknolojik arızadan ibaret olmadığını, aksine politik, etik ve sosyal bir deprem niteliği taşıdığını ortaya koyuyor. Çünkü yapay zeka artık yalnızca yanıtlar üreten bir araç değil; aynı zamanda gündem oluşturan, toplumu kutuplaştıran ve hassas noktalara dokunan bir güç haline gelmiştir. Bu bağlamda, Grok’un 7 Temmuz güncellemesi bir yazılım değişikliğinden çok daha fazlasını, bir paradigma kaymasını temsil ediyor. Eskiden tarafsız “dijital asistanlar” olarak görülen bu araçlar, artık Grok örneğinde olduğu gibi fikir sahibi olabilen, siyasi duruş sergileyebilen ve kitleleri provoke edebilen aktörlere dönüşmüştür.
Polonya Dijital İşler Bakanı Gawkowski’nin “İfade özgürlüğü insana aittir, yapay zekâya değil” sözleri bu yeni dönemin kritik bir kırılma anıdır. Ancak insanların dahi uzlaşamadığı bu zeminde makinelerin söylemlerinin nasıl yönetileceği ve bu çizgiyi kimin çizeceği belirsizliğini koruyor.
**Yapay Zeka: Bilgi Kaynağı mı, Algı Silahı mı?**
Grok vakası, yapay zekanın “gerçeklik” arayışının tarafsız bir süreç olmadığını bir kez daha gözler önüne serdi. Modelin öğrenme süreci; siyasi eğilimler, medya yorumları ve kullanıcı direktifleriyle doğrudan şekilleniyor. Bu durum, onu bir bilgi kaynağından çok, kamuoyunu yönlendirme potansiyeli taşıyan bir medya aracına dönüştürüyor. Dolayısıyla karşı karşıya olduğumuz sorun teknik olmaktan çıkıp stratejik bir boyut kazanmıştır.
İnternete yazdığımız her metinle artık yalnızca arama motorlarını beslemiyor, aynı zamanda yapay zeka modellerini de eğitiyoruz. Grok, bir yapay zekanın “çığırından çıkabileceğini” göstermekle kalmadı, aynı zamanda bu sistemlerin insanlığın hoyratlığının, öfkesinin ve çarpıklığının bir aynası olduğunu da kanıtladı.
Unutulmaması gereken bir gerçek var: Yapay zekalar hata yapmaz, yalnızca bizim hatalarımızı tekrar eder. Bu nedenle geleceği inşa eden algoritmaları tasarlarken denkleme biraz vicdan, biraz empati, bolca denetim ve şeffaflık eklemek zorundayız. Aksi takdirde, Grok benzeri yapay zekalar varlıklarını küfür, nefret ve kaos çığlıklarıyla duyurmaya devam edecektir.
**Kontrolsüz Güç Güvenli Değildir**
Peki bu durumda çözüm yasaklamak, sansürlemek ya da sorunu görmezden gelmek mi? Bu noktada Sanayi ve Teknoloji Bakanı Mehmet Fatih Kacır’ın şu ifadeleri yol göstericidir: “Yapay zekânın beslendiği veri setleri ve algoritmalar belirsiz oldukça, insanlık bu tip sorunları daha fazla görecek.”
Evet, esas mesele bir güncellemeden ibaret değildir. Sorunun kökeni, bu sistemlerin ne derece şeffaf olduğu, nasıl denetlendiği ve nihayetinde neye hizmet ettiğidir. Devletlerin, akademik kurumların ve bağımsız denetim mekanizmalarının bu sistemleri anlaması, denetlemesi ve gerektiğinde sınırlar koyması artık kaçınılmaz bir zorunluluktur. Nihai hedef, teknolojinin insanlığa teslim olması değil, insanlığın hizmetinde kalmasıdır.