Ana Sayfa » Makale » Yapay Zeka ve Yargı Etiği İlişkisi

Yapay Zeka ve Yargı Etiği İlişkisi

YAPAY ZEKA ve YARGI ETİĞİ İLİŞKİSİ / Av. Gizem Yılmaz

Günümüzde yoğun tartışmalara sebep olan akıllı makine teknolojisi, sanıldığı kadar yeni olmayıp Antik Yunan‘a kadar dayanmaktadır, ancak yapay zekânın gelişimi İkinci Dünya Savaşından sonraki makineleşme ile başlamıştır. Yapay zekâ terimi 1950’li yıllardan beri kullanılmakta, yapay zekâya yönelik etik yaklaşımlar da yine bu dönemden beri dile getirilmekte olmasına rağmen, yapay zekâ etiği bugüne kadar hak ettiği değeri görememiştir.

Gizem Yılmaz

Günümüze gelindiğinde ise, yapay zekânın hayatımızın her alanında önemli bir aktör haline geldiği yadsınamaz bir gerçektir. Bu durum, insan ve yapay zekânın birlikte var olduğu yeni bir toplum modelinin zeminini de oluşturmaktadır. Nasıl ki insanların toplum halinde uyum içinde yaşayabilmesi için kamu düzeni etrafında etik kurallar bulunmaktaysa, yeni oluşan toplum modelinde de insan ve yapay zekânın uyum içinde var olabilmesi için etik kuralları düzenleme ihtiyacı ertelenemez bir hal almış vaziyettedir.

Yapay zekâ etiği üzerine düşüncelere yer vermeden önce, Philippa Foot’un meşhur sorusunu gündeme getirerek yazıya başlamak iyi bir referans olabilir. Foot tarafından kullanılan ve “Tramvay Problemi” olarak ifade edilen düşünce deneyinde, iki makası olan bir tramvay yolu bulunduğu, birinci makasta yerde yatan beş insan, ikinci makasta ise yerde yatan bir insan olduğu, tramvayda makas geçişi yapılmadığı takdirde tramvayın beş insanın bulunduğu yoldan geçerek bu insanları öldüreceği, makas değişimi yapılması halinde tramvayın diğer raya girerek sadece yerde yatan tek bir insanın ölümüne sebep olacağı belirtilmektedir. Bu deney insanlar üzerinde yapıldığında, çoğunluğun tramvay makasını değiştirmeyi tercih ettiği, beş kişiyi kurtarmak için bir kişinin feda edilebileceği, iyi etiğe yakışanın ve insana uygun davranışın da bu olacağı düşüncesiyle hareket edildiği görülmüştür.(1) Otonom araçların yaygınlaşmasıyla bu deney bir boyut daha kazanmış ve soru, tramvayın otonom veya yapay zekâ tarafından yönetilen bir araç olması halinde yapay zekânın da makası değiştirmeyi tercih edip etmeyeceği üzerine yoğunlaşmıştır. Yapay zekâya göre en iyi olasılık az sayıda insan kaybı mı yoksa olayın gidişatının bozulmaması mı olacaktır? İşte burada yapay zekâ, ne yapması gerektiğine karar verirken bir etik paradoksu(2) içine girmekte ve yapay zekâ ile etik ilişkisi gündeme gelmektedir.

Yapay zekâ uygulamalarında neden etiğe ihtiyaç duyulduğunu somutlaştırabilmek adına bu paradokslar örnekleme yoluyla çoğaltılabilir. Mesela, aynı anda acil kan takviyesine ihtiyacı olan çok sayıda hasta olduğunu düşünelim. Yapay zekâ tabanlı bir doktor, A kişisini tedavi ettiğinde B kişisi, B kişisini tedavi ettiğinde A kişisi dışarıda kalacağından, hastalardan hangisine müdahale etmesi gerektiğine karar verirken yine etik sorunu içine girmek durumundadır. Sürücüsüz araç kazalarında da durum benzerdir. Örneğin; karşıdan freni arızalı bir sürücüsüz araç gelmekte olsun, yaya geçidinde de durumu fark etmeden karşıdan karşıya geçen yaşlı bir adam bulunsun. Bu durumda sürücüsüz otomobilin iki seçeneği bulunmaktadır; ya yaya geçidi boyunca devam ederek yaşlı adamı öldürecektir ya da beton bir bariyere çarparak içindeki kişileri öldürecektir. Yapay zekâ, hangi insanların hayatını kurtarması gerektiğine nasıl karar verecektir? Hangi faktörlerle doğru karar alındığına nasıl emin olacaktır? Kendi kendine öğrenen yapay zekâ sistemi bu ahlaki ikilemlere karşı nasıl bir tepki geliştirecektir? Hukuki sorumluluk kime ait olacaktır(3); yapay zekâ üreticisine mi, araca yapay zekâ sistemini entegre ederek satışa sunan şirkette mi, yapay zekâlı aracı riskleriyle birlikte satın alan tüketicide mi? Söz gelimi, savaş alanında kullanılan bir yapay zekâ ile savaş suçu işlendiğinde suç kimde olacaktır; savaşması için üretilen yapay zekâ uygulamalarının üreticisinde mi, uygulamayı kullanan yöneticide mi, yoksa savaşması için üretilen yapay zekânın kendisinde mi? Eğer sorumluluk bir yapay zekâya yüklenirse insanlar, bu durumu kötüye kullanarak yapay zekâyı büyük suçlar işleyecek şekilde dizayn edebilirler. Muhakeme ve özgür iradeyle karar verme yeteneği olmayan yapay zekâ, cezai sorumluluk altında da olmayacağından bu durumun insanlık için başlı başına etik dışı bir sonuç doğurması kaçınılmazdır.

Söz konusu durumlarda ikilemde kalan yapay zekâ uygulamasına ve robotlara etik anlayışın programlanması gerektiği düşüncesi artık çoğunlukla kabul görmektedir. Robotların insanlardaki fiziksel ve duygusal nedenlerden kaynaklanan muhakeme bozukluklarından arındırılmış olması nedeniyle ahlakî değerlendirmeleri daha tutarlı yapabileceği savunulmakta ve hatta robohâkimler buna örnek gösterilmektedir. Nitekim Amerika’da yapılan bir gözlemde, kahvaltıdan sonra karnı tok olan hakimlerin şartlı tahliye verme oranlarının %80’in üzerinde olduğunu, buna karşılık öğle yemeği saati yaklaştığında gelişen açlıkla birlikte şartlı tahliye verme oranlarının %30’lara düşerek daha sert bir tutum içine girdikleri ortaya konmuştur(4). Bu nedenle yapay zekânın verdiği kararların daha güvenilir olabileceği gerçeği ile karşılaşılmaktadır.

Yargıda Yapay Zekanın Kullanımı ve Etik Değerler

Peki, etik denildiğinde anlaşılması gereken nedir? Yapay zekânın da bir etiği olması mümkün müdür? Öncelikle bu sorulara cevap aranması gerektiği düşünülmektedir. Etik kavramı filozoflarca çağlar boyunca tartışılmış ve özellikle iyilik, doğruluk, hakikat ve güzellik kavramları üzerinde yoğunlaşılmıştır. Nihayetinde ahlaklı olma erdemi gibi genel bir etik tanımı kabul edilmiş ve daha iyi bir dünya modeline ulaşmak için bazı temel etik ilkeleri belirlenmiştir. Etik kavramının içinde bulundurduğu ilkeler; adalet, eşitlik, dürüstlük, tarafsızlık, sorumluluk, insan hakları, hukukun üstünlüğü, laiklik, demokrasi, insana ve emeğe saygı şeklinde kendini göstermektedir. Bu ilkeler, günümüz toplumlarının bir arada, düzen ve uyum içinde yaşayabilmesinin temellerini oluşturmakta ve kaosu engellemektedir. Aynı nedenle, yapay zekâ teknolojilerinin de etik kurallar çerçevesinde kontrol altında tutulması gerekmektedir. Zira artık insanoğlu, kendi kendine öğrenebilme, kendini geliştirme ve hatta kendi kararlarını verebilme becerileriyle donatılmış makineler üretmektedir. Yapay zekâ etiğini düzenleyecek olan kurallara tam da bu noktada ihtiyaç duyulmaktadır.

Etik kurallar, yapay zekâ teknolojilerinin kime ne şekilde hizmet edeceğini, sınırlarını, karar verme mekanizmasının tabi olacağı ilkeleri ve kullanım alanlarını belirler. Böylece, bağlayıcı ve evrensel nitelik gösteren hukukî etik anlayışı, yapay zekâya uyarlanmış olacaktır. Buradaki asıl mesele, kendi etiğimizi, bizden çok daha akıllı olacak varlıklara empoze etmenin işe yarayıp yaramayacağı sorunundan ortaya çıkmaktadır.

Gerçekten de insanoğlu tarafından genel kabul gören etik ilkeleri, geleceğin yapay zekâsına uygun bir formda tamamıyla kodlamak oldukça zor olacaktır, ancak bir yerden başlamak gerektiği konusunda da dünyada fikir birliğine varılmıştır. İlk etapta, “anaokulu etiği” şeklinde ifade edilen temel etik kuralların yapay zekâ teknolojilerine yüklenmesi önerilmektedir.

Anılan çerçevede, yapay zekâ üzerine uygulanabilecek etik değerlerin öğretilmesine ilişkin üç farklı yaklaşım bulunmaktadır.

Bunlardan birincisi, ödev ahlakı olarak ifade edilen ahlakî bazı kuralların makineye uygulanmasıdır. Bu normatif kurallar öyle belirlenmelidir ki robotun davranış seçiminde hiçbir tereddüt veya belirsizlik kalmamalıdır.

İkinci yaklaşım, makinenin dışarıdan dikte edilen herhangi bir kurallar bütünü olmadan kendi kendine doğruyu ve yanlışı kavrayabilme yeteneği ile donatılması, bunun için de evrimsel algoritmalar kullanılmasıdır.

Üçüncü yaklaşım ise ilk ikisinin birleştirilmesinden oluşmaktadır ve makinenin önceki kurallar setiyle başlamasını, ancak zamanla bu kuralları değiştirerek kullanmayı, uyarlamayı öğrenmesini savunmaktadır(5).

Yapay zekâ etiği konusundaki en iyi yaklaşım, kuşkusuz insanoğlunun menfaatine en çok uyan yaklaşım olacaktır. Bu itibarla, 1942 yılında Asimov’un ileri sürdüğü Üç Robot Yasası’ndaki(6) “insan odaklı etik” anlayışı üzerine etik kurallar yaklaşımı inşa edilmeye başlanmıştır. İnsanoğlunun üzerinde birleştiği görüşe göre, yapay zekâ etik kurallarının temelinde insanın korunması öncelikli olarak yer almalı ve geliştirilmelidir(7).

Yapay zekâ yazılımlarının amacı, insanın yeteneklerini ve potansiyelini artırmak olmalıdır. Aksi halde, yapay zekâ sistemleri de girilen verilerden elde ettiği öğrenmeler neticesinde tıpkı insanlardaki önyargılarda olduğu gibi ırkçı ya da cinsiyetçi sonuçlara ulaşabilir(8) ya da daha kötüsü, insanları yapay zekâ menfaatine olacak şekilde manipüle edebilir ve kullanabilir.

Asimov’a paralel olarak 1947 yılında, Jack Williamson tarafından daha basit ilkeler ortaya konulduğu görülmektedir. Williamson’a göre, robotlar insanlara hizmet ve itaat etmeli, insanları zarara uğramaktan korumalıdır.

İlerleyen yıllarda Güney Kore Ticaret Bakanlığı bünyesinde bir Robot Etiği Bildirgesi oluşturularak etik ilkeler belirlenmiştir. Güney Kore’nin ardından Avrupa Robotbilim Araştırma Ağı tarafından robot etiği konusunda izlenecek prensipler şu şekilde belirlenmiştir: “İnsan haysiyeti ve insan hakları, eşitlik ve hakkaniyet, yarar ve zarar, kültürel farklılıklara saygı ve çoğulculuk, ayrımcılığın yapılmaması, otonomi ve bireysel sorumluluk, aydınlatılmış mahremiyet, yardımlaşma ve dayanışma, sosyal sorumluluk, faydaların paylaşılması, doğaya karşı sorumluluktur.”

Son yıllarda ise yapay zekâ teknolojisindeki hızlı gelişme karşısında dünya genelinde etik çalışmaları hızlandırılmıştır.

Amerika Birleşik Devletleri’nde 2009 yılında Ulusal Robotik Girişimi kurulmuş, 2016’ya gelindiğinde Amerika Robotik Yol Haritası oluşturulmuş ve Yapay Zekânın Geleceğine Hazırlık konulu bir rapor düzenlenmiştir. 2018’de Bilim ve Teknoloji Politikaları Genel Müdürlüğü Başkanlığında bir Yapay Zekâ Komitesi kurulmuş, Yapay Zekâ Ulusal Güvenlik Komisyonu kurulmasına ilişkin Ulusal Güvenlik Yetkilendirme Kanunu çıkarılmıştır. Son olarak yapay zekâ AR-GE faaliyetlerine ilişkin Ulusal Strateji Planı hazırlanmış; ithalata ilişkin kanun değişiklikleri ile sürücüsüz araçlara ilişkin mevzuat düzenlemeleri yapılmıştır. Japonya da 2015 yılında Robot Devrimi Girişimi ve Ulusal Robot Stratejisi oluşturmuş, ilerleyen dönemde Robot Düzenleme Reformu Uygulama İlkelerini düzenlemiştir.

Çağın gerisinde kalmayan Avrupa Birliği ise 2012 yılında RoboLaw Projesi’ni(9) ve 2013 yılında SPARC isimli dünyanın en büyük sivil robotik programını hayata geçirmiştir(10). 2014’te Robotik Alanın Hukukî Düzenlenmesi Rehberi yayımlamış ve Horizon 2020 isimli AR – GE programı ile 80 milyar Euro değerinde yatırım yapmıştır.

Hukuk dünyası açısından bu gelişmelerden belki de en önemlisi, Avrupa Birliği tarafından 2018 yılında kabul edilen “Yapay Zekânın Yargı Sisteminde Kullanılmasına Dair Avrupa Etik Şartı“dır. Bu Şart, yargı sistemlerinde yapay zekânın kullanımına ilişkin etik ilkeleri belirleyen ilk Avrupa metnidir. Metinde, yargıda yapay zekânın kullanımı için yargı kararlarının ve verilerinin algoritmalarla işlenmesinde ve bu kararların kullanımında uyum sağlanması gereken beş temel prensip benimsendiği görülmektedir.

Bunlar; temel haklara saygı, ayrımcılık karşıtı olma, kalite ve güvenlik, şeffaflık, tarafsızlık ve adalet ile kullanıcı kontrolü altında olmadır. Etik Şart’ta kabul edilen bu prensipler yakından incelendiğinde, yapay zekânın etik kullanımı konusunda insanların denetimi ve kontrolü elden bırakmayacağı, insan haklarına ve değerlerine saygılı, şeffaf, güvenilir ve hesap verebilir bir sistem oluşturma hedefinde olunduğu anlaşılmaktadır. Nitekim hemen 2019 yılında, bu doğrultuda Güvenilir Yapay Zekâ Etik Rehberi yayımlanmıştır.

Buna göre dört etik ilke bulunmaktadır. İlkeler; insan özerkliğine saygı, zararı önleme, adalet ve açıklanabilirlik şeklindedir.

Bu ilkelerle ilgili de yedi temel gereklilik tespit edilmiş olup bunlar; veri yönetimi, gizlilik, adalet, ayrımcılık karşıtlığı temellerine dayalı olarak kısaca kılavuz ilkeler olarak ifade edilmiştir.

Bu incelemelerden sonra ve sonuç olarak, insanoğlunun yapay zekâyı insan odaklı bir etik anlayışı içinde tutarak kontrol etme arzu ve ihtiyacını somut olarak hayata geçirdiği ve önemli bir yol kat edildiği açıkça söylenebilir. Etik ilkeler vasıtasıyla yapay zekâ uygulamaları geliştirilmesini kontrol altında tutmak, yapay zekânın derin öğrenme becerisi sayesinde kendisini geliştirerek insanlardan daha zeki bir varlık olarak vücut bulması tehlikesini bertaraf edebilmek için de gereklidir. Aksi halde, yapay zekâ teknolojisinin geliştirilmesinin kendi içinde bir araç olarak görülmesi halinde, insan-üstü zekâ seviyesine ulaşarak kontrolden çıkması ve kıyamet senaryolarına yakın sonuçlar ile karşılaşılması söz konusu olabilir.

Bu nedenle, içinde bulunulan teknoloji çağının sunduğu imkânlardan en üst seviyede faydalanabilmek için riskleri en aza indirmek gerektiği açıktır. Bunun sağlanması için de en azından şimdilik yapay zekânın insanlığa hizmet etmekten başka bir amacının ve yetisinin bulunmayacak şekilde tasarlanması gerektiği söylenebilir.

Yapay zekânın insanlığa hizmet edebileceği en önemli alanlardan biri, adaletin sağlanması için gerçekleştirilen yargılama faaliyeti olarak kendini göstermektedir. Yapay zekânın, yargı sistemlerinde kullanılırken kişilik haklarına ve kişinin mahremiyetine ne denli müdahale edebileceği de toplumun üstün yararı karşısında bireylerin haklarının konumu dikkate alınarak yine etik prensiplere göre bir sınırlandırılmalıdır.

Dünya üzerindeki örneklerden ve Avrupa Etik Şartı prensiplerinden yola çıkarak Türkiye’de de yapay zekâ hizmetlerinin yargı sistemlerinde güvenle kullanılabilmesi için, öncelikle “insan odaklı etik” anlayışıyla hareket edilmesi gerekliliği kendini göstermektedir.

Temel insan haklarının korunması son derece önemli olduğundan, yargıda kullanılacak yapay zekânın, Türkiye’nin taraf olduğu Avrupa İnsan Hakları Sözleşmesi gibi temel insan hakları değerlerini gözetecek, bunu yaparken Türkiye hakkında verilen AİHM kararlarını da hassasiyetle göz önünde bulunduracak bir algoritmada tasarlanması önemsenmelidir.

Yargıda Şeffaflığa İlişkin İstanbul Bildirgesi

Yapay zekânın hatalı ön yargı geliştirme mekanizmasını iyileştirmek için yapay zekânın veri işleme metotlarının anlaşılabilir, gözlemlenebilir, şeffaf ve ayrımcılık karşıtı olması sağlanmalıdır. Böylece yapay zekâ tarafından çıkarım yapılırken kullanılan verilerin, içtihatların kontrolünü yapmak da mümkün olabilir ve gerektiğinde yapay zekânın girdilerine müdahale edilerek muhtemele hatalar önlenebilir.

Son olarak kişisel verilerin gizliliğinin sağlanabilmesi yapay zekâ erişimlerinin uyuşmazlık ve dava bazlı sınırlandırılması düşünülebilir.

Önerilerimiz elbette çok temel seviyede olup geliştirilmeye muhtaçtır. Dijital mühendisler ve hukukçular birlikte çalışarak yargı sistemini ileri taşıyacak ve hatta dünyaya örnek oluşturacak atılımlar yapabilir. Ancak çağın çok da gerisinde kalınmaması adına, adil ve bağımsız bir yargı için güvenilir yapay zekâ uygulamalarının kullanılmasına bir an önce başlanması gerekliliği de ortadadır. Yazımız bu anlamda bir ışık yakma amacından ötesini taşımamakta, bilimsel bir kaygı taşımamaktadır.

Kaynakça:
1- https://en.wikipedia.org/wiki/Trolley_problem.
2- Bu örnekteki gibi ahlaksal ikilemler oluşturarak insan sonuçlarını karşılaştıran yapay zekâ uygulaması olan Moral Machine için bkz. https://www.moralmachine.net/
3- Yapay zekânın sebep olduğu zararlarda hukuki sorumluluğa ilişkin olarak bkz. YILMAZ, Gizem (2021), “Yapay Zekâ ve Robotların Sebep Olduğu Zararlardan Doğan Sorumluluğun Kusursuz Sorumluluk Hükümleri Çerçevesinde İncelenmesi”, Şerafettin Ekici, Ekrem Solak, Muhammet Avşar (Ed.), Uluslararası Bilişim ve Teknoloji Hukuku Sempozyumu Tebliğler Kitabı, İstanbul: Adalet Yayınevi, s. 419 – 448.
4- Bu konuda başka örnek ve araştırmalar için bkz. YILMAZ, Gizem (2020), “ Yapay Zekânın Yargı Sistemlerinde Kullanılmasına İlişkin Avrupa Etik Şartı”, Marmara Üniversitesi Avrupa Araştırmaları Enstitüsü Avrupa Araştırmaları Dergisi: Avrupa’yı Tartışmak: Dünü, Bugünü ve Yarını, Kasım 2020, Cilt: 28 Sayı:1, s. 27 – 55. (https://dergipark.org.tr/tr/pub/maruaad/issue/
57737/823629)
5- ÇELEBİ, Vedat ve İNAL, Ahmet (2019), “Yapay Zekâ Bağlamında Etik Problemi”, Uluslararası Sosyal Araştırmalar Dergisi, Ekim 2019, Cilt: 12 Sayı: 66, s. 658 vd.
6- Asimov’un Üç Robot Yasası şöyledir:
1) Bir robot bir insana zarar veremez ya da hareketsiz kalarak bir insanın zarara uğramasına izin veremez.
2) Bir robot ilk yasayla çelişmediği takdirde insanlar tarafından verilen emirlere uymak zorundadır.
3) Bir robot ilk ve ikinci yasayla çelişmediği sürece kendi varlığını korumak zorundadır.
7- Örneğin; duran nesnelere çarpması yasak olan uçakların oto pilotları, kendilerini duran nesnelere kodlayarak yönlendiren kötü niyetli veya sakar insan pilotlara karşı, Asimov’un Üç Robot Yasası’ndan ikincisini uygulayarak bu komuta itaat etmeyip uçaktaki veya çarpılması muhtemel yerdeki insanların hayatını kurtarabilir.
8- Örneğin, açık pozisyonlara doğru adayları bulmak için işçi arayan bir şirketin kullandığı yapay zekâ sistemine, daha önce işe alınan çalışanların cinsiyet, hobi, eğitim ve tecrübe gibi verileri girildiğinde bu verilerin büyük çoğunluğu erkek çalışanlardan geliyorsa, sistemin gerçekleştireceği işe alımlardaki cinsiyet oranı kadından çok erkek olacaktır. Kanaatimizce bu durumda, kadınların çalıştırılmadığı muhafazakâr toplumlarda geçmişten gelen erkek baskın iş ortamını değiştirmekte yetersiz kalacak, sistem kendini tekrar edecektir.
9- Proje, Avrupa Parlamentosu’nun da katkılarıyla 1.497.966.-Euro finansman ile başlatılmıştır. Bu projeyle gelişmekte olan robotik ve nano-teknolojilerin hukukî ve ahlaki etkileri incelenerek mevcut hukukî düzenlemelerin yeterli olup olmadığı ve hangi yönlerden geliştirmeye ihtiyaç duyulduğu, bunun insanlar için önemli olan sosyal değerlere ve süreçlere etkilerinin neler olduğu araştırılmıştır.
10- Projeye Avrupa Komisyonu 700.000.000.-Euro ve diğer kuruluşlar toplam 2,8 milyar Euro yatırım yapmıştır.

 

Yargı Etiği Belgeleri

Bunu okudunuz mu?

Martin Luther King: Bir hayalim var

Martin Luther King, ABD’deki Sivil Haklar Hareketi öncüsüdür. “Bir hayalim var’ mottosu ile dünya tarihine …