Türkiye Barolar Birliği Dergisi 166.Sayı

227 TBB Dergisi 2023 (166) NDGire g=D(0ø5 Deni] 32LAT na yönelik çözüm arayışı literatürde ve uygulamada tartışılmaktadır. Avrupa Komisyonu’nun 2019’da konuya ilişkin yayınladığı ve yapay zekâ teknolojilerinin kullanımına dair önemli hususlara dikkat çeken Ethics Guidelines for Trustworthy AI: High-Level Expert Group on Artificial Intelligence19 başlıklı kılavuzda da olası önyargıları önlemek ve elemek için çeşitli önerilere yer verilmektedir. İlgili Kılavuz, veri toplama aşamasında tanımlanabilir ve ayrımcı önyargıların ortadan kaldırılması gerektiğine dikkat çekmektedir.20 Öte yandan, yapay zekâ sistemlerinin oluşturulmasında (örneğin algoritmaların programlanmasında) önyargılar fark edilmeden kullanılabilir. Böyle bir durumda, yapay zekâ sisteminin amacını, gereksinimlerini ve sınırlarını açık ve şeffaf bir şekilde analiz etmek ve ele almak için gözetim süreçleri devreye sokulmalıdır. Kılavuza göre, bu gözetim ve denetim süreçleri, önyargıları bir nebze de olsa engelleyebilir. Ayrıca söz konusu sistemlere yönelik çalışmak üzere farklı sosyal çevrelerden, kültürlerden ve disiplinlerden işe alımlar, fikirlerin çeşitliliğini sağlayabilir. 21 Bu doğrultuda bir diğer çekince de şeffaflığa ilişkindir. Yapay zekâ teknolojilerinin karmaşık yapısının yaratabileceği anlaşılmazlık riskinin hukuk aktörleri açısından hesap verilebilirliği de gölgelediği ileri sürülmektedir.22 Söz konusu karmaşık yapı hem teknik hem hukuki açıdan bir “kara kutu” olarak nitelendirilmektedir.23 Ayrıca, genel olarak tüm teknolojik araçlara özgü risklerin hukuktaki yapay zekâ araçları için de geçerli olduğu düşünülebilir. Özellikle siber saldırı riski, hukuki sonuçları etkileyecek kadar yapay zekâ sis19 European Commission, Ethics Guidelines for Trustworthy AI: High-Level Expert Group on Artificial Intelligence, 2019 (https://digital-strategy.ec.europa.eu/en/ library/ethics-guidelines-trustworthy-ai, e.t. 01.10.2021). 20 Ethics Guidelines, s. 18. 21 Ethics Guidelines, s. 18. Örneğin Amazon ve LinkedIn’in sistemleri, iş başvurularında uygun aday önermeye yönelik cinsiyetçi bir şekilde çalıştığı iddiası üzerine yeniden gözden geçirilmiştir. Jana Soukupova, “AI-Based Legal Technology: A Critical Assessment of the Current Use of Artificial Intelligence in Legal Practice”, Masaryk University Journal of Law and Technology, Vol. 15, No. 2, 2021, s. 285. 22 Richard M. Re/Alicia Solow-Niederman, “Developing Artificially Intelligent Justice”, Stanford Technology Law Review, Vol. 22, No. 2, 2019, s. 263. 23 Hukuk teknolojilerindeki ‘karar verme’ sürecinin neredeyse anlaşılmayacak kadar karmaşık olması “teknik anlamda kara kutu” olarak nitelendirilirken, algoritma ve verilerin ‘ticari sır’ olarak saklanması ise “hukuki anlamda kara kutu” olarak nitelendirilmektedir. Bkz. Soukupova, s. 284-285.

RkJQdWJsaXNoZXIy MTQ3OTE1