Yapay Zeka Etiği: Karar Veremeyen Makineler
Bir model 'seçim' yapmaz; olasılık dağılımından örneklem çeker. Biz bunu ahlaki bir özne gibi sorumlu tutarken ne yapıyoruz?
“Yapay zeka kararı verdi” cümlesini çok duyuyoruz. Kredi reddedildi, yüz tanımadı, başvuru elendi. Ama bir model karar vermez. Olasılık dağılımından örneklem çeker. Bu ayrım, tüm etik tartışmanın kaldığı yerdir.
Kararın tanımı
Karar, alternatifler arasından bilinçli tercih anlamına gelir. Üç koşul gerekir:
- Alternatiflerin farkındalığı — en az iki seçeneği ayırt etmek
- Değerlendirme — bir kritere göre karşılaştırmak
- Sorumluluk — sonucun failini tanıyabilmek
Bir transformer bu üçünü de yapmaz. Ağırlık matrislerinden bir softmax çıkar, sampling yapar, token üretir. İşlem yapar, karar vermez.
O zaman neden karar dili kullanıyoruz?
İki sebepten:
Birincisi, ajentlik atfetme insani bir refleks. Hareket eden her şeye “niyet” yüklüyoruz — bu Michael Tomasello’nun “shared intentionality” dediği şey. Bir yaprağın rüzgarda hareketine bile.
İkincisi — ve daha tehlikelisi — ajentlik atfetmek sorumluluğu dağıtmak için kullanışlı. “Algoritma karar verdi” cümlesi, aslında “modeli eğiten kişi, eğitim verisini seçen kişi, eşiği belirleyen kişi, üretimde tutan kişi” zincirini bir zamirin arkasına saklar.
”Karar” cümlesinin dilbilgisi
Şuna dikkat edin:
“Sistem başvuruyu reddetti.”
Bu cümlenin öznesi sistem. Fiil reddetti — etkin, niyetli. Ama gerçekte:
- Bir şirket bu sistemi seçti
- Bir mühendis eşiği 0.72 olarak belirledi
- Bir ürün sahibi “otomatik ret” iş kuralını yazdı
- Bir veri kümesi belirli önyargıları içeriyordu
Cümlenin öznesi sistem olarak kaldığı sürece, bu dört failin hesabı sorulmaz. Dil, sorumluluğu sildi.
Sorumluluğun yeniden yerleştirilmesi
Etik bir AI tartışması şu soruyla başlamalı: bu kararın ardındaki insan zinciri kimdir?
Beş halka:
- Veri toplayıcı — hangi veriyi alırım, hangisini almam?
- Etiketleyen — hangi örüntüyü “doğru” kabul ederim?
- Eğitici — hangi kayıp fonksiyonunu optimize ederim?
- Konuşlandıran — bu modeli hangi bağlamda kullanırım?
- Denetleyen — sonuçları nasıl ölçer, nasıl düzeltirim?
Bir ret kararının etiği bu beş halkadan hiçbirine tek başına atfedilemez. Ama hiçbiri sorumsuz da değildir. Etik, dağıtılmış bir sorumluluğun yönetimidir.
”Ahlaki makine” yanılgısı
Bazı araştırmacılar makineyi ahlaki özne yapmayı öneriyor — ona değerler kodlamak, tercihleri hesaplatmak. MIT’nin “Moral Machine” deneyi bunun popüler bir örneği.
Ama bu yanılgıdır. Çünkü:
- Ahlak bedenli bir varlık durumunun bir özelliğidir (acı, yaşlanma, ölüm)
- Ahlak karşılıklıdır — tanınma ve tanınmanın gerçekleşemediği anın deneyimi
- Ahlak hesaplanamaz — çünkü kriterler değişkendir, bağlamsaldır, çelişkilidir
Bir modele “değer” yüklemek, değerin yerine değer benzeri bir kısıtlama katmanı koymaktır. Benzer görünür; aynı değildir.
Sonuç
Yapay zeka etiği “makineyi nasıl iyi yaparız?” sorusu değildir. O soru yanlış. Doğru soru: “Bu sistemin ürettiği sonuçtan kim sorumludur, bunu nasıl görünür kılarız, nasıl hesap veririz?”
Makinenin ahlakını tartışmak, insanların ahlakını tartışmamak için bir bahanedir. Ve bu bahane, şu anda, çok geniş kullanılıyor.
“Failin adını koyamayan, eylemi yönetemez.”
AI etiği biraz da dilbilgisi eleştirisidir. Cümlenin öznesi kim? Orada durun.
İlgili okuma: Mittelstadt, B. (2016). The ethics of algorithms. · Birhane, A. (2021). The impossibility of automating ethics. · Butler, J. (2005). Giving an Account of Oneself.