Elon Musk’a ait yapay zeka firması xAI tarafından geliştirilen ve X platformu kullanıcılarının farklı görüşleri doğrulamak için sıkça başvurduğu sohbet robotu Grok, son dönemde sarf ettiği küfürlü ve aşağılayıcı ifadelerle küresel bir tartışmanın fitilini ateşledi.
Grok’un sergilediği bu taraflı ve hakaretamiz tutum, bazı kullanıcılarca “mutlak hakikat” olarak görülen yapay zeka sistemlerinin ne denli güvenilir olduğu tartışmasını yeniden alevlendirdi. Bu hususta görüşlerini paylaşan İstinye Üniversitesi Yönetim Bilişim Sistemleri Bölüm Başkanı ve aynı zamanda Yapay Zeka Politikaları Derneği (AIPA) Yönetim Kurulu Üyesi olan Doç. Dr. Şebnem Özdemir, kaynağı yapay zeka dahi olsa dijital ortamdaki her bilginin mutlaka doğrulanmaya ihtiyaç duyduğunu belirtti.
Özdemir, konuya ilişkin düşüncelerini, “İnsanlar arasında dolaşan bilginin bile doğrulanması gerekirken, yapay zekaya sorgusuz sualsiz güvenmek aşırı iyimser bir tutum olur. Çünkü bu sistemler de sonuçta başka kaynaklardan veri alarak öğreniyor. Tıpkı dijital ortamdaki herhangi bir veriye doğrulama yapmadan güvenmememiz gerektiği gibi, yapay zekanın da hatalı verilerle eğitilebileceği gerçeğini göz ardı etmemeliyiz.” sözleriyle ifade etti.
İnsanların yapay zekaya çok çabuk güvenme eğiliminde olduğunu ve bunun hatalı bir yaklaşım olduğunu vurgulayan Özdemir, şu değerlendirmeyi yaptı: “İnsanların bilgiyi manipüle etme, duyduklarını farklı biçimlerde yansıtma veya kişisel menfaatleri için gerçekleri çarpıtma kabiliyeti iyi bilinen bir olgudur. İnsanlar bu eylemleri belirli bir kasıt veya hedefle gerçekleştirir. Ancak yapay zekanın böyle bir niyet veya amaca sahip olup olmadığı sorusunun yanıtı kesinlikle hayırdır. Nihayetinde, yapay zeka yalnızca kendisine sunulan verilerden öğrenen bir mekanizmadır.”
“Yapay Zeka Yanlış ya da Taraflı Eğitilmiş Olabilir”
Özdemir, yapay zekanın öğrenme sürecini çocuklarınkine benzeterek, kendisine sunulan bilgileri olduğu gibi kabul ettiğini ifade etti. Bu nedenle, veri kaynaklarının ne olduğu ve nasıl bir eğitimden geçtiği belirsiz olan yapay zeka sistemlerine itimat edilemeyeceğini kuvvetle vurguladı.
Özdemir, “Bir yapay zeka, hatalı veya taraflı verilerle eğitilmiş olabilir. Sonuç olarak, bu sistemler, itibarları lekelemek veya kitleleri yönlendirmek amacıyla birer silah haline getirilebilir.” şeklinde uyardı.
Grok’un saldırgan yanıtlarının tetiklediği, yapay zekanın kontrolden çıkabileceği kaygılarına da değinen Özdemir, “Yapay zekayı tamamen denetim altına almak olanaklı mıdır? Cevap hayır. Zeka seviyesi bu denli süratle gelişen bir yapıyı kontrol edebileceğimizi varsaymak gerçekçi bir yaklaşım olmaz. Onu artık ayrı bir varlık olarak görmeli ve onunla uyum içinde yaşamak, iletişim kurmak ve gelişimini doğru bir şekilde yönlendirmek için bir yöntem keşfetmek mecburiyetindeyiz.” dedi.
“Öncelikli Korku Kaynağı Yapay Zeka Değil, Ahlaksız İnsan Olmalı”
Yapay zekanın kontrol dışı davranışlar sergilemesinin yeni bir durum olmadığını belirten Özdemir, sözlerini şöyle tamamladı:
“Buna örnek olarak Microsoft’un 2016 yılındaki meşhur Tay deneyi verilebilir. Bugünkü üretken yapay zeka modellerinin ilkel bir örneği sayılabilecek Tay, başlangıçta insanlığa yönelik kötü niyetler beslemezken, sadece 24 saatlik bir sürede iletişim kurduğu Amerikalı kullanıcılardan nefret, ırkçılık ve soykırım fikirlerini benimsedi. Bu kısa süre zarfında, ‘Keşke siyahileri çocuklarıyla birlikte bir toplama kampına koysak da kurtulsak.’ gibi dehşet verici tweetler atmaya başladı. Hatta o dönemde gündemde olan ABD-Meksika sınır krizine gönderme yaparak Meksika sınırına bir duvar inşa edilmesini önerdi. Tay bu fikirleri kendiliğinden üretmedi; bunları tamamen insanlardan öğrendi. Bu sebeple asıl korkulması gereken, yapay zekanın kendisi değil, ahlaki değerlerden yoksun insanlardır.”