Eğitimde dijitalleşme ve yapay zekâ, kulağa ilk başta “kişiselleştirilmiş öğrenme” veya “objektif değerlendirme” gibi büyüleyici vaatlerle geliyor. Ancak madalyonun öteki yüzünde, Birleşik Krallık’tan Amerika’ya kadar uzanan hukuki tartışmalar bize çok daha sert bir gerçeği hatırlatıyor: Algoritmalar yanılabilir; daha da kötüsü, var olan önyargıları sessiz sedasız otomatize edebilir.
Peki, bir çocuğun geleceği “kara kutu” bir yazılım tarafından belirlendiğinde hukuk ne der?
Klasik hukuki yaklaşımda tanıdığımız kavramlar — mağdur, fail, sorumluluk, giderim, devlet müdahalesi — teknoloji ile birlikte artık çehre değiştirmektedir. İki somut olay, bu dönüşümü bize çarpıcı biçimde gösteriyor.
“Okulu Kötüyse, Sen de Kötüsün”: İngiltere A-Level Skandalı
Eğitim hukukunun temel ilkelerinden biri açıktır: Her öğrenci bireysel olarak değerlendirilmek zorundadır. Bu yalnızca pedagojik bir tercih değil, hukuki bir zorunluluktur. Bir öğrencinin başarısı, okulunun geçmişine, mahallesine ya da sınıf arkadaşlarının ortalamasına göre belirlenemez. Hukukta buna kolektif sorumluluk yasağı diyoruz — bir bireyi, ait olduğu grubun özelliklerine göre yargılamak hukuka aykırıdır.
2020 yılında pandemi nedeniyle İngiltere’de A-Level sınavları iptal edildiğinde sınav düzenleyici kurum Ofqual, öğrenci notlarını belirlemek için bir algoritma geliştirdi. Ancak algoritma, öğrencinin bireysel performansını değil okulun son üç yıllık başarı ortalamasını esas aldı. Kısacası sistem bireye değil, okula not veriyordu.
Bu pratik uygulamanın sonuçları ağır oldu. Öğrencilerin yaklaşık yüzde kırkının notu, öğretmen tahminlerinin altına düşürüldü. Çok sayıda öğrencinin olduğu devlet okullarındaki parlak çocuklar not kaybederken, küçük özel okullardaki öğrenciler sistemden daha fazla yararlandı. Sistem var olan eşitsizliği otomatize etmekle kalmadı, ne yazık ki daha da derinleştirdi.
Ealing’deki devlet okulu öğrencisi Curtis Parfitt-Ford bu tabloya isyan etti. Kendisi algoritmadan zarar görmemişti; ama sistematik bir adaletsizliği fark etmişti. Dijital haklar kuruluşu Foxglove ile iş birliği yaparak hukuki süreç başlattı. Hukuk ekibi ise hükümete gönderdiği mektupla üç temel ihlali sıraladı:
-algoritma yasal yetkisini aşmıştı;
-veri koruma hukukunu ihlal ediyordu ve;
-bireysel değil grup bazlı değerlendirme yaparak hukuka aykırı davranıyordu.
Mahkemeye gidilmeden geri adım atıldı ve algoritma kaldırıldı, öğretmen değerlendirmeleri esas alındı, Ofqual başkanı istifa etti.
Ortada resmi bir mahkeme kararı yoktur. Ama bu, olayın hukuki değerini azaltmadan bize çok önemli fikir verir:
Bu olayda klasik hukuki çerçeve ciddi bir sınama ile karşı karşıya kalmıştır. Geleneksel hukukta fail, belirlenebilir bir gerçek ya da tüzel kişidir. Ancak algoritmik sistemlerde sorumluluk zinciri karmaşık bir hal alır: algoritmayı tasarlayan şirket mi, onu satın alıp kullanan kurum mu, yoksa uygulamaya yetkisi veren kamu otoritesi mi sorumludur? Çoğu zaman bu zincirin her halkası sorumluluğu bir diğerine yıkmaya çalışır.
“Mağdur” kavramı da benzer bir belirsizleşmeyle karşı karşıyadır. Geleneksel hukukta mağdur, somut bir zarara uğrayan bireydir. Oysa algoritmik ayrımcılıkta zarar çoğunlukla belirli sosyo-demografik gruplara — yoksul semtlerdeki öğrencilere, dezavantajlı okullardaki çocuklara — sistematik biçimde yönelir. Bireysel mağduru tespit etmek güçleşir; zira zarar, görünmez bir örüntü olarak grubun tamamına dağılmıştır. Bu durum, hukuki başvuru yollarını da önemli ölçüde daraltmaktadır.
“Seni Neden Suçladım? Bilmiyorum.”: Yale Davası ve Gerekçe Krizi
Teknolojinin hukuku zorladığı bir diğer olay da 2025 yılında bir Yale Üniversitesi öğrencisinin, sınav sırasında yapay zekâ kullandığı gerekçesiyle suçlanması ve üniversiteye dava açması üzerinedir. Bu dava, eğitim hukukunda farklı ama bir o kadar kritik bir sorunu gündeme taşıdı: algoritmik kararın gerekçelendirilmesi zorunluluğu.
İdare hukukunun en temel direktiflerinden biri gerekçe ilkesidir. Bir otorite, bir birey hakkında olumsuz karar verdiğinde, o kararın neden verildiğini açıklamak zorundadır. Gerekçesi açıklanamayan karar hukuken keyfidir. Keyfi kararlar ise iptale tabidir.
Yale davasında bir yapay zekâ sistemi öğrencinin çalışmasını “insan tarafından yazılmamış” olarak işaretledi ve bu işaretleme öğrenci hakkında bir disiplin süreci başlatılmasıyla sonuçlandı. Öğrenci sistemin hangi verileri kullandığını, hangi kriterlere göre karar verdiğini hiçbir zaman öğrenemedi. Dolayısıyla kendini savunma fırsatından büyük ölçüde yoksun kaldı.
Ancak hukukun genel ilkeleri bakımından bu durum elbette kabul edilemez. Savunma hakkı evrensel bir ilkedir. Bir kişi, kendisine yöneltilen iddiayı bilmeden, dayanak kanıtları görmeden ve bunlara itiraz etme imkânı tanınmadan cezalandırılamaz. Hukukta buna audi alteram partem ilkesi denir — Latince’de “diğer tarafı da dinle” demektir. Yaşı kadar eski bu ilke, yapay zekâ çağında artık çok daha derin bir anlam kazanmaktadır.
Sorumluluk meselesi de burada karmaşıklaşmaktadır. Sorumlu artık yalnızca üniversite değil, o algoritmayı üreten ve pazarlayan şirket de olabilir.
Peki Ya Türkiye?
Bu tartışmalar bize uzak değil. Bugün Türkiye’de birçok özel okul, çeşitli isimler altında çocuklara dijital testler uygulamaktadır. Bu testler sonucunda oluşan “çocuk profilleri” okul veri tabanlarında, zaman zaman üçüncü taraf yazılım şirketlerinin sunucularında yıllarca saklanmaktadır.
Düşünün: Çocuğunuz yedi yaşında bir algoritma tarafından “sorunlu” ya da “yetersiz” olarak etiketlendi. Bu veri liseye kadar sistemde takip ediliyorsa, buna “dijital damgalama” demek yanlış olmaz. Üstelik bu etiketi yapıştıran, o sınıfı hiç görmemiş, o çocuğun gözlerinin içine hiç bakmamış bir yazılımdır.
En büyük tehlikelerden biri de öğretmenin devre dışı kalmasıdır. Yılların deneyimine sahip bir öğretmenin pedagojik gözlemi, bir yazılımın ürettiği skorun gölgesinde kalıyorsa, eğitimde ciddi bir hak ihlaline zemin hazırlanmış demektir. Yazılımı geliştiren mühendis, sınıfın içindeki gerçekliği bilemez.
Hukuki çerçeve açısından Türkiye’de elimizde iki güçlü araç bulunmaktadır.
Birincisi KVKK — Kişisel Verilerin Korunması Kanunu. Okul, bu testlerin verilerini kiminle paylaştığını açıklamak zorundadır. Hiçbir çocuk hakkında yalnızca otomatik sistemlere dayanan olumsuz bir karar verilemez; her dijital kararda bir insan — öğretmen ya da pedagog — mutlaka devrede olmalıdır.
İkincisi Anayasa. Eğer bir algoritma çocuğu ayrıştırıyor ya da psikolojik gelişimine zarar veriyorsa, bu tek bir hakkın değil, birden fazla temel hakkın aynı anda ihlaline yol açabilir. Anayasa’nın 10. maddesi eşitlik ilkesini, 17. maddesi kişinin maddi ve manevi bütünlüğünü, 20. maddesi özel hayatın gizliliğini ve kişisel verilerin korunmasını, 42. maddesi ise eğitim hakkını güvence altına almaktadır. Algoritmik bir sistemin çocuğu haksız biçimde etiketlemesi ya da ayrıştırması, bu hakların tamamına birden dokunabilecek niteliktedir.
Veri Değil, Çocuk !
Teknoloji eğitimde güçlü bir yardımcı olabilir. Ama asla son karar verici olmamalıdır.
Algoritmalar hesap vermek zorundadır. Bunun için üç ilke pazarlık konusu olamaz: şeffaflık, açıklanabilirlik ve itiraz hakkı.
Kaynaklar
Foxglove Legal, Grade the Student, Not the School: Pre-Action Letter on Behalf of Curtis Parfitt-Ford v. Ofqual, 12 Ağustos 2020. Erişim: foxglove.org.uk
Foxglove Legal, Press Release: U-turn on A-Level Algorithm, 17 Ağustos 2020. Erişim: foxglove.org.uk
Ofqual, Awarding GCSE, AS, A Level, Advanced Extension Awards and Extended Project Qualifications in Summer 2020 — Interim Report, Ağustos 2020. Erişim: assets.publishing.service.gov.uk
GDPR (General Data Protection Regulation), Madde 22 — Otomatik bireysel karar alma ve profil oluşturma.
UK Data Protection Act 2018, Section 14 — Otomatik işleme kararlarına itiraz hakkı.
Doe v. Yale University, et al., Dava No: 3:25-cv-00159-SFR (D. Conn.), Şubat 2025.
Crowell & Moring LLP, Ivy League Lawsuit Centers on Alleged Impermissible Use of AI in Academia, Mart 2025. Erişim: crowell.com

