184 AB’nin AİHK’ya Katılımının AB Divanı’nın CETA’ya İlişkin Görüşü Işığında Değerlendirilmesi yın meydana geleceğini fiilen öngörmeyip, ancak kendi durumundaki herhangi bir makul kişi tarafından öngörülebilmesi anlamına gelen objektif bir makuliyet ölçüsüyle öngörü yeteneğini değerlendirmeyi tercih etmiştir.157 Başka ifadeyle taksirli davranışın tespiti, ortalamamakul bir kişiden beklenen davranışı ölçü alan objektif öngörülebilirlik ve kişinin aldığı eğitim, bilgi, yeteneği ve kişisel tecrübesiyle beklenen davranışı esas alan sübjektif öngörülebilirlik şeklinde olur. Objektif öngörülebilirlik gerektiren hukuk sistemlerinde, yapay zekâ sistemi tarafından işlenen taksirli suçtan dolayı cezai sorumluluğun doğması için programcının en azından bir ihmali/taksiri olması gerekir. Bununla birlikte, sübjektif öngörülebilirlik gerektiren hukuk sistemlerinde, programcının söz konusu suçtan dolayı cezai sorumluluğu doğması için en azından yapay zekâ sistemi tarafından taksir suçunun işlenebileceğinin farkında olması gerekir. Ancak, programcının suçun işlenmesine yönelik ne sübjektif ne de objektif öngörülebilirliğe sahip olmaması halinde, olası netice sorumluluğu158 doğmayacaktır.159 Bir otonom aracın nasıl davranacağını ön görmek zor olabilir. Ancak otonom bir aracın nasıl davranacağını öngörmenin zor olması olası bir kazada kullanıcıların, yazılımcıların160 veya araç sahiplerinin sorumlu tutulmaması gerektiği anlamına gelmeyecektir. Çünkü otonom araçların davranışını öngörememek, tam olarak kişinin gereken 157 Hallevy, Liability for Crimes Involving Artificial Intelligence Systems, s. 134. 158 Olası netice sorumluluğu Halley tarafından önerilen bir modeldir. Olası netice sorumluluğu, planlanmamış olmasına rağmen planlanmamış suçlar için cezai sorumluluğu genişleterek bu zorluğu gidermeye yönelik bir modeldir. Bu modelle otonom varlıkların dâhil olduğu suçlarda, plan dâhilinde olmadan işlenen suçların cezasız kalmasını önlemeyi amaçlanmaktadır. Olası sonuç, hem taraf açısından zihinsel olarak muhtemel olan hem de planlanan suçtan kaynaklanan olgusal sonuç anlamına gelir. Olası sonuç sorumluluğunun insan-yapay zekâ suçlarına uygulanabilirliğine ilişkin iki tür senaryo olabilir. İlk senaryo, programcının yapay zekâ sistemini belirli suçları işlemek için tasarladığı, ancak sistemin programcının planını nicel (aynı türden daha fazla suç), niteliksel (farklı türden daha fazla suç) veya her iki şekilde aştığı durumlarla ilgilidir. İkincisi ise, programcının yapay zekâ sistemini herhangi bir suç işlemek için tasarlamadığı, ancak sistemin bir suç işlediği durumlarla ilgilidir. Olası netice sorumluluğu modeline ilişkin bkz. Hallevy, Liability for Crimes Involving Artificial Intelligence Systems, s.115-120. 159 Hallevy, Liability for Crimes Involving Artificial Intelligence Systems, s. 134-35. 160 Otonom araç yazılımcısı, bir makine öğrenimi algoritmasının ne kadar kapsamlı bir şekilde eğitildiğini, ADS’nin tüketicilere sunulmadan önce ne kadar sıkı bir şekilde test edildiğini ve ADS’nin piyasaya sürülüp sürülmediğini kontrol etmektedir. Bkz. Soh, s. 24.
RkJQdWJsaXNoZXIy MTQ3OTE1