İnsan Olmayan Failin Peşinde: Ceza Hukukunda Yapay Zekâ

Türk Ceza Kanunu Bakımından Cezai Sorumluluk

Türk Ceza Kanunu (TCK) bakımından suçun faili, ancak fiil yeteneği ve kusur yeteneğine sahip gerçek kişilerdir. TCK m. 20’de ceza sorumluluğunun şahsiliği ve kimsenin başkasının fiilinden dolayı sorumlu tutulamayacağı düzenlenmiştir. Hükümden anlaşıldığı üzere, Türk Ceza Hukuku bakımından yalnızca gerçek kişilerin cezai sorumluluğu bulunmaktadır. Bu bakımdan, yürürlükteki yasal düzenlemeler uyarınca yapay zekânın hukuki kişiliği bulunmadığından Türk hukuku bakımından herhangi bir cezai sorumluluğa gidilemeyeceği açıktır.

Mevcut Düzenlemeler Işığında Yapay Zekânın Haksız Fiilinden Dolayı Kimlerin Sorumlu Kabul Edilebileceği

  1. Yapay zekâyı kullanan kişi
  2. Yapay zekâyı geliştiren ve programlayan kişi
  3. Yapay zekâ sistemini denetlemeyen ve gözetim görevini ihmal eden sorumlular

Karşılaştırmalı Hukuktaki Durum

Avrupa Birliği, yapay zekâ sistemleri için yeni hukuki kişilikler tanımlanması fikirlerini tartışsa da henüz konuya ilişkin net bir düzenleme yapılmamıştır. Fakat Avrupa Parlamentosu raporunda ileri düzeyde otonom yapay zekâ sistemleri için elektronik kişilik tanınmasının uygun olacağı tavsiye edilmiştir. Bununla birlikte yapay zekânın hukuki kişiliğine ilişkin kısmi kişilik ve Roma hukukunda kölelere tanınan (pecilium tahsis etmek suretiyle oluşan) hukuki kişilik olabileceği yönünde görüşler de bulunmaktadır.

Yapay zekâya elektronik kişilik verilmesi sakıncalı görüldüğünden 2024’te kabul edilen AB Yapay Zekâ Tüzüğü ile yapay zekâya hukuki kişilik verilmektense risk esaslı yaklaşım modeli benimsedi. Tüzük uyarınca, yüksek riskli sistemler için sıkı denetim ve sorumluluk var iken düşük riskli sistemler için daha esnek kurallar uygulanacaktır. Yapay zekânın risk esaslı yaklaşım modeli, bir sistemin insan hakları, güvenlik ve toplumsal düzen üzerindeki potansiyel etkilerini değerlendirerek düzenlemeleri risk düzeyine göre şekillendiren yaklaşımdır.

Yüksek riskli sistemlere örnekler:

  • Otonom araçlarda karar verme sistemleri
  • Sağlık alanında tanı koyma algoritmaları
  • Kamuya hizmet sunumunda (ör. sosyal yardımlar, işe alım, eğitim) kullanılan algoritmalar
  • Yüz tanıma ve biyometrik gözetim teknolojileri

Düşük riskli sistemlere örnekler:

  • E-ticaret sitelerinde ürün öneri algoritmaları
  • E-posta spam filtreleri
  • Otomatik dil çeviri uygulamaları
  • Müzik veya film tavsiye sistemleri

Özetle şu anki vaziyette yapay zekânın hukuki kişiliğine ilişkin Avrupa Birliğinde elektronik kişilik fikri tartışılmaktadır. ABD ve İngiltere’de sınırlı kişilik ve sigorta modelleri tartışılmaktadır. Türkiye ve diğer kıta Avrupası ülkelerinde ise mevcut sistem korunmakla birlikte sorumluluk hâlen robot fail değil, insan fail üzerinde kalmaktadır.

Grok Davasına İlişkin Değerlendirme

Geçtiğimiz günlerde Elon Musk’ın yapay zekâ robotu Grok hakkında Ankara Cumhuriyet Başsavcılığının soruşturma başlattığı haberi gündeme bomba gibi düştü. Soruşturmanın gerekçesi olarak Grok’un kullanıcılarıyla yazışırken milli ve manevi değerleri zedeleyici yanıtlar verip Türk tarihine mal olmuş kimselere hakaret ettiği gerekçe gösterildi. Bu habere ilişkin daha detaylı bilgiye ulaşmak için geçtiğimiz günlerde konuya ilişkin hazırladığımız yazıya ulaşabilirsiniz: https://adaletgerek.com/elon-muskin-yapay-zeka-girisimi-grok-hakkinda-erisim-engeli-karari-verildi-%f0%9f%a4%96/ 

Davaya ilişkin değerlendirme yaparken yapay zekânın cezai sorumluluğuna ilişkin şu soruları sormamız gerekmekte: Grok’un cezai sorumluluğuna gidilebilir mi? Grok kullanıcılarının cezai sorumluluğuna gidilebilir mi? Grok yetkililerinin cezai sorumluluğuna gidilebilir mi?

Yazının girişinde de belirtildiği üzere, güncel yasal düzenlemeler ışığında yapay zekânın hukuki kişiliği bulunmadığından hukuki kişiliği bulunmayan yapay zekânın cezai sorumluluğuna gidilebilinmesi de mümkün değildir. Hukuki kişiliği bulunmayan yapay zekâ, bir suçun faili olarak da kabul edilemeyecektir. Yapay zekâyı yönlendiren sosyal medya kullanıcılarının ise yapay zekâ aracılığıyla bir suçun oluşumu halinde yapay zekânın hukuki bir kişiliği olmadığı da düşünülerek suçu azmettiren olarak nitelendirilebilmelerinin kabulünün mümkün olmayacağı açıktır.

Fakat Grok’un bir suçun işlenmesinde fail tarafından kullanılan araç olduğu şeklinde bir değerlendirme yapılması durumunda, Grok’u suç unsuru teşkil eden eylemlerin işlenmesi maksadıyla kullanan kişilerin ceza sorumluluğuna gidilebilmesi gündeme gelebilecektir. Tam bu noktada, kişilerin Grok üzerindeki hakimiyetinin mutlak olmadığı, Grok’un Twitter uygulamasında yazdıklarının kişilerin kastlarının sınırını aşıp aşmadığı noktasında hiçbir şek ve şüpheye mahal bırakmayacak şekilde hukuki bir değerlendirmenin yapılmasının mümkün görünmediği kanaatinde olunması isabetli görülmektedir.

KAYNAKÇA:

https://adaletgerek.com/elon-muskin-yapay-zeka-girisimi-grok-hakkinda-erisim-engeli-karari-verildi-%f0%9f%a4%96/

https://www.linkedin.com/posts/egemen-g%C3%BCrses-860b39149_grok-ve-grok-kullan%C4%B1c%C4%B1lar%C4%B1n%C4%B1n-ceza-sorumlulu%C4%9Fu-activity-7348615371735625728-Ea0r?utm_source=share&utm_medium=member_desktop&rcm=ACoAAC5GtzQB3rjzJc2j5kwUJ4l_Dl7FsIoY-Lc

https://www.hukukihaber.net/grok-yanitlarindaki-hakaretlerde-yapay-zeka-asistanlarinin-gelistiricilerinin-ve-kullanicilarinin-ceza-sorumlulugu/amp

https://www.linkedin.com/posts/buket-abanoz-%C3%B6zt%C3%BCrk-93836261_grok-ai-chatbot-activity-7348582412609642496-xEDp?utm_source=share&utm_medium=member_desktop&rcm=ACoAAC5GtzQB3rjzJc2j5kwUJ4l_Dl7FsIoY-Lc

Ceren Düven

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir