TBMM Yapay Zeka Araştırma Komisyonu toplantısında konuşan ABD merkezli Yapay Zeka ve Dijital Politika Merkezi Başkanı Merve Hickok, yapay zeka sistemlerinin toplumda yaratabileceği adaletsizliklere dikkat çekti. Hickok, yapay zekanın karar verme süreçlerinde kadınlara, yaşlılara, engellilere ve etnik ile dini azınlıklara karşı daha ön yargılı ve negatif sonuçlar doğurabileceğini vurguladı.
Koyu tenli insanlar üzerinde hata yapıyor
Hickok, yüz tanıma sistemlerinin koyu tenli insanlar üzerinde büyük hatalar yapma eğiliminde olduğunu, bu durumun güvenlik kuvvetleri tarafından kullanıldığında haksız tutuklamalara yol açabileceğini belirtti. Ayrıca, sağlık alanında kontrolsüz kullanılan yapay zeka sistemlerinin hasta tedavilerinde ciddi tanı farklarına yol açabileceğini ifade etti.
Göçmenleri hedef alıyor
Hickok, yapay zekanın gücünden yararlanmak için doğru şekilde anlaşılması gerektiğini belirterek, son yıllarda yapay zeka sistemleri ile ilgili yaşanan bazı skandallara örnekler verdi. Hollanda'da Vergi Kurumu tarafından kullanılan bir algoritmanın, ağırlıklı olarak göçmenleri yanlışlıkla vergi kaçakçısı olarak işaretlemesi ve binlerce kişinin iflas etmesine yol açması bunlardan biriydi. Benzer skandalların ABD, Avustralya, İsveç ve Fransa'da da yaşandığını belirtti.
Yapay zekanın bilinci yok!
Hickok, yapay zekanın bilincinin olmadığını savundu. Üretken yapay zeka sistemlerinin, örneğin ChatGPT’nin, anlamlı cevaplar veriyor gibi görünmesine rağmen, aslında bu sistemlerin cevapları yalnızca bir sonraki kelimeyi tahmin ederek oluşturduklarını açıkladı. Hickok, mevcut yapay zeka sistemlerinin bilincinin olmadığını ve bu sistemlerin hala insanların anlama ve bilinç düzeyine ulaşamadığını belirtti.
Yapay zekanın insan hayatına etkisi ve potansiyel riskleri konusunda dikkatli olunması gerektiğini vurgulayan Hickok, sistemlerin güvenli ve kontrollü bir şekilde kullanılmasının önemine işaret etti.