Algoritmik Fıkhın Sorunları
Kendinde nötr olarak görülen veriler aslında toplumsal önyargılara oldukça bağımlıdır.
Sistemin adil ve açık olması gerekiyor fakat öyle değil. Veriler araştırma yapılan bölgelere göre değişiklik gösteriyor. Mesela aynı kişi Müslüman bir ülkede araştırıldığı zaman farklı sonuçlar elde ediliyor çünkü o bölgeden girilen veriler farklılaşıyor.
Şubat ayının sonunda Medeniyet Araştırmaları Merkezi Muhammad Aurangzeb Ahmed’i konuk etti. Ahmad, Washington Üniversitesi Bilgisayar Mühendisliği Bölümünde öğretim üyesi olarak çalışmalarını sürdürmektedir. Ahmad, yapay zekanın ve makinelerin giderek toplumsalın her alanına yayılan dünyada Müslüman toplumların, özellikle fıkhın nelerle yüz yüze gelebileceği üzerine düşünüyor.
Ahmad konuşmasına yapay zekayı tanımlayarak başladı. Telefon, GPS ya da sağlık raporları gibi günlük hayatımızda kullandığımız ve etrafımızda olan her şey yapay zekadır. Her birinin kendine ait bir veri kaynağı vardır, hepsi çevresiyle veri alışverişine girer. Makine öğrenmesi ise yapay zekanın bir alt dalıdır. Yapay zeka sistemlerinde herhangi bir problem oluştuğu zaman sistem bunu kendi kendine çözmeye programlıdır, dışarıdan sisteme bir müdahale gerekmez. Bütün bu yapay zeka verileri bir araya geldiğinde ise bir algoritmaya dönüşürler.
Veri veya bilgi gibi şeylerden konuştuğumuz zaman çoğu insan bunların sorgulanamaz doğrular olduğunu düşünür. Verilerin politik olmaması, hiçbir düşünce ve ideolojiye sahip olmaması, kısaca önyargı içermemesi gerekir. Fakat gerçekte bu doğru değil çünkü toplanan verilerin bir sosyal bağlamı bulunduğu için bunların hepsi önyargılı verilerdir. Kitlesel iletişim organlarının popüler olarak bize nasıl görseller sunduğuna dikkat edersiniz bunların farklı topluluklar için, hatta bireysel olarak özelleştirildiğini görürsünüz. Bu açıklamadan sonra örneklere geçen Ahmad, verilerin toplumsal önyargılara ne kadar bağımlı olduğunu anlattı. Bu örneklerden birinde siyahi bir kişinin makine/bilgisayar tarafından suça yatkın olarak gösterilmesi yer alıyor. Yapay zeka sisteminin kendisi ayrımcılığa programlanmamış olsa dahi sisteme girilen veriler bu yönde olduğu için bir ayrımcılık durumu oluşuyor. Sistem toplumsal önyargıları yansıtıyor ve güya ideoloji ve önyargı barındırmadığına inandığımız verilerin arkasındaki iradeye ve yönlendirmeye ne kadar bağlı olduğu görülüyor.
Bu ve benzeri örneklerden öğrenilecek çok şey var. Eğer bu siyah kişi bir işe sahipse sistem bu kişiyi işsiz siyah kişilere göre daha düşük suç riskine sahip olarak gösteriyor. Sistem aynı zamanda kişileri sosyo-ekonomik statülerine göre de ayırıyor. Veri sonuçlarına göre sistemin adil ve açık olması gerekiyor fakat öyle değil. Aynı zamanda veriler araştırma yapılan bölgelere göre de değişiklik gösteriyor. Mesela aynı siyah kişi Müslüman bir ülkede araştırıldığı zaman aynı sistemden farklı sonuçlar elde ediliyor çünkü o bölgeden girilen veriler ve bilgiler farklılaşıyor. Ahmad bu sonuçların pratik içeriklerinin neler olduğunu sorguluyor.
Yapay zekanın yüz tanıma teknolojisini bunun pratik içeriklerine örnek olarak gösteriyor. Google ve benzeri sistemlerin otomatik olarak yüz ve kişiyi eşleştirme özelliği mevcut. Siyahi bir kişinin yüzü Google’a gösterildiği zaman sistem bu yüzü bir maymun fotoğrafı ile eşleştirebiliyor. Ahmad’e göre bu eşleştirmenin sebebi yine bilgi ve veri eksikliği. Benzer bir örnek iPhone’nun yüz tanıma özelliğinde de mevcut. Bu özellik ile telefonun kilidi açılabiliyor ve parmak izi özelliğine benzer, kişiye özel bir hizmet sunuyor. Ancak bu özellik Çin’de çalışmıyor çünkü aynı telefonu tüm Çinlilerin yüzü açabiliyor. Her iki örnekte de ayrımcılık ve önyargı bilgi ile veri girişi eksikliğinden kaynaklanıyor.
İnsanlar yapay zeka teknolojisi için endişe duyuyorlar fakat Ahmad’e göre asıl endişe duymamız gereken şey yapay aptallık ve bunun getirdiği istenmeyen sonuçlar. İnsanın kavrama yeteneği ve çalışılan bilgi miktarı da sınırlı, bu sınırlara bağlı olarak kişiler bilerek ya da bilmeyerek önyargılara sahip oluyorlar. Bu önyargılarımızı makinalara aktarıyoruz fakat yine de ekleyebileceğimiz yeni veriler, üretilebilecek yeni bilgiler mevcut. Ahmad sözlerini tamamlarken insanların makina verileri söz konusu olduğu zaman rastlantı ve belirsizlik gibi kavramları unuttuklarına değiniyor. Ona göre bütün bu sorunları süzmek için insanları eğitmemiz gerekiyor.