BLOGLAR

Biltek Logo Halka
Biltek Logo Halka
MAYIS022026

Yapay Zeka Ayrımcılığı: Yanlılık Metrikleri Hukuki Delil mi?

Yapay Zeka Ayrımcılığı: Yanlılık Metrikleri Hukuki Delil mi?
YAPAY ZEKA KAYNAKLI AYRIMCILIĞIN TEKNİK KANITLANABİLİRLİĞİ: YANLILIK (BİAS) METRİKLERİNİN HUKUKİ DELİL OLARAK KULLANIMI, YAPAY_ZEKA, YASAL UYUM YASAL UYUM

Yapay Zeka Kaynaklı Ayrımcılığın Teknik Kanıtlanabilirliği: Yanlılık (Bias) Metriklerinin Hukuki Delil Olarak Kullanımı

 

Hukuki ve Mevzuat Altyapısı

Yapay zeka sistemlerinin karar alma süreçlerindeki yanlılığın (bias) tespiti ve hukuki yaptırıma bağlanması, Türkiye'de tek bir kanunla değil, çok katmanlı bir mevzuat yapısıyla yönetilmektedir. Teknik kanıtların hukuki geçerliliği şu dayanaklar üzerinden şekillenmektedir:

T.C. Anayasası Madde 10: "Herkes, dil, ırk, renk, cinsiyet, siyasi düşünce, felsefi inanç, din, mezhep ve benzeri sebeplerle ayırım gözetilmeksizin kanun önünde eşittir." (Algoritmik ayrımcılığın temel anayasal ihlal noktası).
 
6698 Sayılı Kişisel Verilerin Korunması Kanunu (KVKK): Özellikle otomatik süreçlerle analiz edilerek kişinin kendisi hakkında bir sonucun ortaya çıkarılması ve buna itiraz hakkı (Madde 11), yapay zeka kararlarının denetlenebilirliği için temel teşkil eder.
 
Türk Borçlar Kanunu ve İş Kanunu: İşe alım veya terfi süreçlerinde kullanılan AI araçlarının yarattığı ayrımcılık, "eşit davranma borcu" kapsamında tazminat sorumluluğu doğurur.
 
AB Yapay Zeka Yasası (EU AI Act) Etkisi: Türkiye'nin dijital dönüşüm stratejileri ve Gümrük Birliği uyumu gereği, "Yüksek Riskli AI Sistemleri" için getirilen şeffaflık ve veri yönetişimi standartları, yerel mahkemelerde "teknik standart" (state-of-the-art) olarak referans gösterilmeye başlanmıştır.
 
Resmi Gazete ve Dijital Dönüşüm Ofisi Rehberleri: Cumhurbaşkanlığı Dijital Dönüşüm Ofisi tarafından yayımlanan "Yapay Zeka Strateji Belgesi", etik ilkeler ve şeffaflık vurgusuyla teknik denetimin önünü açmaktadır.

Teknik Analiz ve Uygulama

 

Yapay zeka sistemlerinde ayrımcılık, genellikle "kara kutu" (black box) problemi nedeniyle gizli kalır. Ancak modern veri bilimi, bu gizliliği ortadan kaldıracak Kantitatif Yanlılık Metrikleri sunmaktadır. Bir algoritmanın ayrımcı olduğunu kanıtlamak için izlenen teknik yol haritası şöyledir:

1. Veri Seti Denetimi (Pre-processing Audit)
Ayrımcılık genellikle eğitim verisindeki tarihsel yanlılıklardan kaynaklanır. Burada Representation Bias (Temsiliyet Yanlılığı) analiz edilir. Eğer eğitim setinde belirli bir demografik grup (örneğin kadınlar veya belirli bir etnik köken) yetersiz temsil edilmişse, model bu grup için hatalı genellemeler yapar.

2. Temel Yanlılık Metriklerinin Uygulanması
Hukuki bir delil oluşturmak için şu matematiksel metrikler kullanılır:

Disparate Impact (Farklı Etki): En yaygın kullanılan metriktir. "80% Kuralı" olarak da bilinir. Korunan grup (örneğin azınlıklar) ile avantajlı grubun başarı oranları karşılaştırılır. Eğer oran 0.8'in altındaysa, sistemin istatistiksel olarak ayrımcı olduğu varsayılır.
 
Statistical Parity Difference (İstatistiksel Eşitlik Farkı): İki farklı grup için olumlu sonuç alma olasılıkları arasındaki farktır. Sıfıra ne kadar yakınsa, sistem o kadar adildir.
 
Equalized Odds (Eşitlenmiş Olasılıklar): Modelin "Yanlış Pozitif" (False Positive) ve "Yanlış Negatif" (False Negative) oranlarının tüm gruplar için eşit olup olmadığına bakar. Örneğin; kredi başvurularında haksız reddedilme oranı, gruplar arasında farklıysa bu teknik bir kanıttır.

 

3. Karşıolgusal Analiz (Counterfactual Analysis)
"Eğer bu kişinin cinsiyeti farklı olsaydı, sonuç değişir miydi?" sorusuna yanıt arayan yöntemdir. Girdi verisindeki tek bir değişken (örneğin cinsiyet) değiştirilip diğer tüm parametreler sabit tutulduğunda çıktı değişiyorsa, bu durum doğrudan ayrımcılığın teknik ispatıdır.

4. XAI (Açıklanabilir Yapay Zeka) Entegrasyonu
SHAP (SHapley Additive exPlanations) ve LIME gibi kütüphaneler kullanılarak, modelin karar verirken hangi özelliğe (feature) ne kadar ağırlık verdiği görselleştirilir. Eğer "posta kodu" veya "yaş" gibi değişkenler, karar mekanizmasında baskın bir rol oynuyorsa ve bu durum dolaylı olarak bir grubu dışlıyorsa, bu durum "Proxy Discrimination" (Vekil Ayrımcılığı) olarak raporlanır.

Stratejik Öngörü ve AI

2026 yılına doğru evrildiğimiz süreçte, yapay zeka hukuku "niyet" sorgulamasından "metrik" sorgulamasına geçiş yapacaktır. İşte önümüzdeki dönemin devrimsel etkileri:

1. Algoritmik Denetim Kuruluşlarının Doğuşu:
Tıpkı bağımsız finansal denetim şirketleri (Big Four) gibi, yapay zeka modellerinin "Adalet Sertifikasyonu"nu yapacak bağımsız teknik denetim kuruluşları standart hale gelecektir. Şirketler, piyasaya sürdükleri modeller için "Bias Audit Report" (Yanlılık Denetim Raporu) sunmak zorunda kalacaktır.

2. "Right to Explanation" (Açıklama Hakkı) Yasallaşacak:
Sadece karara itiraz etmek değil, kararın hangi matematiksel ağırlıklarla verildiğini talep etmek temel bir insan hakkı olarak tanımlanacaktır. Bu durum, şirketleri "Black Box" modellerden "Glass Box" (Şeffaf Kutu) modellerine geçmeye zorlayacaktır.

3. Dinamik Uyumluluk (Dynamic Compliance):
Statik hukuk kuralları yerine, gerçek zamanlı olarak yanlılığı izleyen ve eşik değer aşıldığında sistemi otomatik olarak durduran veya uyaran "AI-Governance" yazılımları, kurumsal risk yönetiminin merkezine yerleşecektir.

4. Yargı Sisteminde "Teknik Bilirkişilik" Dönemi:
Hâkimler, sadece hukukçuların değil, veri bilimcilerin sunduğu "Confusion Matrix" ve "Fairness Metrics" raporlarını temel alarak hüküm verecektir. Matematiksel kanıt, beyanların önüne geçecektir.

Sonuç olarak; Yapay zeka kaynaklı ayrımcılık artık bir "etik tartışma" konusu değil, ölçülebilir ve kanıtlanabilir bir "teknik veri" konusudur. Bu dönüşüme adapte olan kurumlar, hem hukuki risklerini minimize edecek hem de toplumsal güven inşa ederek rekabet avantajı sağlayacaktır.

ATAKAN KOÇAK BİLGİ KÜTÜPHANESİ