Giriş
Günümüzde yapay zekâ; sağlık, eğitim, mühendislik faaliyetleri, bazı mesleklerin icrası gibi, insan hayatına dair birçok alana dâhil olmuş ve her geçen gün daha çok kullanılmaya ve daha fazla alana dâhil olmaya devam etmektedir.[1] Yapay zekânın dahil olduğu bu alanlardan biri de hukuktur.
Kolombiya’da bir hâkim otistik bir çocuğun tıbbi finansmanı durumuna ilişkin yasaların nasıl uygulanacağı konusunda ChatGPT’ye danışmış, hukuk diploması olmadan davaya katılan bir robot avukat bir hukuk firması tarafından dava edilmiş ve Amerika’da ChatGPT-4, Baro sınavını geçmeyi başarmıştır.[2]
Yapay zekâ birçok alanda kullanılmasına rağmen kullanımına ilişkin ulusal ya da uluslararası bağlayıcı yasal bir düzenleme bulunmamaktadır. Ancak yapay zekânın kullanımı ve sonuçları endişe verici boyutlara ulaşmıştır. Örneğin: Elon Musk ve Apple’ın kurucu ortağı Steve Wozniak’ın da aralarında bulunduğu birçok önemli teknoloji uzmanı ve yapay zekâ araştırmacıları, ortak bir güvenlik protokolü oluşturabilmek için gelişmiş yapay zekâ konusunda altı aylık bir bekleme süresi/moratoryum çağrısı yapan bir açık mektubu imzaya açmıştır.[3] Açık mektupta sistemin daha doğru, güvenli, yorumlanabilir, şeffaf, sağlam, uyumlu, güvenilir ve sadık olması vurgusu yapılmıştır.[4] Ayrıca yapay zekâ geliştiricilerinin yapay zekâ yönetişim sistemlerinin gelişimini hızlandırmak için politika yapıcılarla birlikte çalışması gerekliliği, yetenekli düzenleyici makamların önemi, özellikle sistemlerin gözetimi ve takibi konuları, denetim mekanizması bulunmasının önemi, yapay zekâdan kaynaklı zarar sorumluluğu meseleleri ve yapay zekânın sebep olacağı ekonomik ve politik aksaklıklarla başa çıkabilmek için iyi kaynaklara sahip olması gerekli kurumlar konusu belirtilmiştir.
Benzer şekilde 30 Mayıs 2023 tarihinde Chat GPT’nin Yönetim Kurulu Başkanının da içinde yer aldığı “Yapay Zekâ Güvenliği Merkezi” (Center for AI Safety) tarafından yapılan bir açıklamada “Yapay Zekâ kaynaklı yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır.“[5] sözleriyle “yok olma riski” ne (extinction risk) dikkat çekilmiştir.
Takip eden tarihte 31 Mayıs 2023 günü, İsveç’te Avrupa Birliği (AB) ve Amerika Birleşik Devletleri (ABD) üst düzey yetkililerinin içinde bulunduğu “Ticaret ve Teknoloji Konseyi” (Trade and Technology Council) toplantısında, mevcut durumdaki yapay zekâ kullanımının kontrolden çıktığı ve bu konuda acil bir “Yapay Zekâ Davranış Kodu” (AI Code of Conduct) kabul edilmesi gerekliliğine ilişkin açıklamalarda bulunulmuştur.[6] Toplantıda ayrıca, yapay zekâ kullanımında bir küresel yönetişim gerektiği vurgulanmıştır. Küresel yönetişimin gerçekleşmesi, kabul edilecek “Yapay Zekâ Davranış Kodu” ile çalışanların işyerinde uyması gereken politika ve kuralları belirlenmesi sonuç olarak da kodların, temel değerlerin ve misyonun oluşturulmasına öncülük etmesi amaçlanmaktadır.
Tüm bu endişelere rağmen yapay zekânın kullanılması geri dönülmez şekilde hayatımıza girmiştir. Yapay zekânın avantajlarından yararlanılmalı ancak endişeler, yaratacağı sorunlar, hukuksal ihlaller de dikkate alınarak belirli düzenlemeler getirilmelidir. Bu çalışmada bu alanda yapılan düzenlemeler; Avrupa Konseyi, AB ve ABD örneği üzerinden incelenecek, ortak endişeler ve ilkeler tartışılacak ardından yapay zekâ kullanımının ortaya çıkardığı yeni haklar vurgulanacaktır.
Çalışmada ilgili düzenlemeler incelenecek olmakla birlikte günümüzde yapay zekâ alanındaki gelişmeler başka hiçbir alan ile mukayese edilemeyecek bir hızda ilerlemektedir. Ayrıca mevcut hukuk kuralları, yaşanan teknolojik gelişmelerin gerisinde kalmakta mevcut hukuk yapısı ve kurallar gelişmelere, yaşanmakta ve yaşanacak olan sorunlara yetersiz kalmaktadır. Örneğin hukukta karar alma sürecine dahil olan ve olacak “yapay zekâ” için gerçek ve tüzel kişi ayrımına ek olarak “elektronik kişi” ya da “yapay kişi” kavramının eklenmesi gerekebilecek, yeni temel kavramlar, sorumluluğa ilişkin yeni düzenlemeler gündeme gelecektir. Alanda yaşanan değişim hem hukuk uygulamasında hem de yürürlük hukuk kurallarında değişiklikle ve yeni kavram ile yaklaşımların kabul edilmesiyle yerini bulacaktır. Bu sebeple küresel etkileşimi olan ve tüm dünyayı etkileyen yapay zekâkullanımına ilişkin uluslararası genel çerçeve düzenlemesinin getirilmesi ve çözümün uluslararası işbirliği ile tartışılması hayati öneme sahip olmaktadır.
Avrupa Konseyi düzenlemeleri “Avrupa Adaletin Etkinliği Komisyonu” (CEPEJ) “Adli Sistem ve Çevrelerinde Yapay Zekânın Kullanımına İlişkin Avrupa Etik Şartı” ve “Yapay Zekâ Komitesi” (Committee on Artificial Intelligence) tarafından çıkarılan “Revize Edilmiş Sıfır Taslak [Çerçeve] Yapay Zekâ, İnsan Hakları, Demokrasi ve Hukukun Üstünlüğü Sözleşmesi”; Avrupa Birliği düzenlemesi “Yapay Zekâ Yasası”; Amerika Birleşik Devletleri düzenlemeleri ise “Amerikan Halkı İçin Otomatik Sistemleri Çalıştıran Yapay Zekâ Hakları Bildirgesinin Planı, Ekim 2022” (Yapay Zekâ Haklar Bildirgesi)ve "”Federal Hükümette Güvenilir Yapay Zekâ Kullanımının Teşvik Edilmesine İlişkin 13960 Sayılı Yürütme Emri” üzerinden incelenecektir.
I. Avrupa Konseyi:
Hukukta yapay zekâ kullanımında en önemli kurumlardan biri “Avrupa Adaletin Etkinliği Komisyonu” (CEPEJ) (European Commission for the Efficiency of Justice)’dur. Bu kurumun hazırlamış olduğu iki önemli düzenleme bulunmaktadır. İlki “Adli Sistem ve Çevrelerinde Yapay Zekânın Kullanımına İlişkin Avrupa Etik Şartı” (European Ethical Charter on the Use of the Artificial Intelligence in Judicial Systems and Their Environment) (Etik Şartı)[7]. İkincisi ise “Revize Edilmiş Sıfır Taslak [Çerçeve] Yapay Zekâ, İnsan Hakları, Demokrasi ve Hukukun Üstünlüğü Sözleşmesi” (Revised Zero Draft [Framework] Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law)'dir.[8]
Etik Şart; yapay zekânın hızlı gelişimi de dikkate alınarak politika yapıcılara, yasa koyuculara ve adalet uzmanlarına rehberlik edebilecek bir ilkeler çerçevesi sağlamayı amaçlamaktadır.[9] Etik Şartı “Avrupa İnsan Hakları Sözleşmesi” (AİHS) ve Kişisel Verilerin Otomatik İşleme Tabi Tutulması Karşısında Bireylerin Korunması Sözleşmesi (Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data[10]) başta olmak üzere güvence altına alınan temel haklara uygun, sorumlu bir şekilde uygulanması açıkça belirtilmiştir.[11]
Etik Şart’ta beş ilke düzenlenmiştir: (1) İnsan haklarına saygı (Principle of respect for human rights), (2) Ayrım yapmama (Principle of Non-discrimination), (3) Nitelik ve güvenlik (Principle of quality and security), (4) Şeffaflık, tarafsızlık ve fikri bütünlük (Principle of transparency, impartiality and intellectual integrity), (5) Kullanıcı kontrolünde olma (Principle of under user control).
(1) “İnsan haklarına saygı ilkesi” yapay zekâ araç ve hizmetlerinin tasarlanması ve uygulanmasının temel haklarla bağdaşmasını temin eden bir prensiptir.[12] Düzenlemenin açıklamasında Avrupa İnsan Hakları Sözleşmesi (AİHS) ile garanti altına alınan temel haklarla ve Kişisel Verilerin Otomatik İşleme Tabi Tutulması Karşısında Bireylerin Korunması Sözleşmesi ile uyumlu olma ve açıklanabilir amaçlara hizmet etme konusu belirtilmiştir.[13] Düzenlemeye göre yapay zekâ araçlarının, bir uyuşmazlığın çözümüne veya bir adli kararın verilmesine yardımcı olmasında ya da kamuya rehberlik etmede “adalete erişim” ve “adil yargılanma” haklarına ilişkin güvenceleri zedelememesi gerekmekte[14] ve bu araçlar hukukun üstünlüğü ve hâkimlerin karar alma süreçlerindeki bağımsızlığına uygun olarak kullanılmalıdır.[15]
(2) “Ayrım yapmama ilkesi”’nin amacı bireyler veya grup halinde bireyler arasında ayrımcılığın önlenmesidir. Düzenlenmenin açıklamasında verilerin gruplandırılması veya sınıflandırılmasında ayrımcılık meydana gelebileceği bu sebeple kamu ve özel sektör paydaşlarının ayrımcılığı engellemesi, ırksal veya etnik köken, sosyoekonomik geçmiş, siyasi görüşler, dini veya felsefi inançlar, sendika üyeliği, genetik bilgiler, biyometrik bilgiler, sağlığa ilişkin bilgiler veya cinsel hayata veya cinsel yönelime ilişkin hassas verilere dikkat edilmesi gerektiği, ve ayrımcılığın teşhis edilmesi halinde de sınırlandırmaya veya eğer mümkünse riskleri etkisiz kılmaya yönelik düzeltici önlemler alınması gerektiği düzenlenmiştir.[16] Ayrıca makine öğrenimi kullanımı ve multidisipliner bilimsel analizlerin ayrımcılıkla mücadele etmesi gerektiği belirtilmiştir.[17]
(3) “Nitelik ve güvenlik ilkesi” adli kararların ve verilerin işlenmesine ilişkin, sertifikalandırılmış kaynakların ve multidisipliner tasarlanan maddi olmayan verilerin güvenli teknolojik bir ortamda kullanılmasına ilişkin bir düzenlemedir. Düzenlemenin açıklamasında: “Makine öğrenme modeli tasarımcıları, ilgili hukuk alanında uzmanlardan, araştırmacılardan ve sosyal bilimler alanında örneğin ekonomist, sosyolog ve filozoflardan yararlanması…” konusu düzenlenmiştir.[18] Ayrıca bu ilkeye ilişkin: “makine öğrenimi algoritması uygulayan bir yazılıma girilen yargı kararlarına dayalı veriler onaylı kaynaklardan gelmesi ve öğrenme mekanizması tarafından gerçekten kullanılana kadar değiştirilmemesi, kararın içeriğini veya anlamını değiştirecek herhangi bir değişiklik yapılmadığından emin olmak için tüm sürecin izlenebilir olması ve üretilen model ve algoritmaların güvenli bir çevrede saklanması…” gerektiği düzenlenmiştir.
(4) “Şeffaflık, tarafsızlık ve fikri bütünlük ilkesi” verinin işlenmesi yöntemlerinin ulaşılabilir ve anlaşılabilir olmasına ilişkin bir düzenlemedir. Fikri mülkiyeti ile şeffaflık ihtiyacı, tarafsızlık ve önyargısızlık, adalet ve fikri bütünlük arasında denge kurulması gerektiği vurgulanmıştır.[19] Bu ilke sonuçların nasıl üretildiğinin tarif edilebilir olması ve geliştirilen araçların, performans ve hata riskleri iletilerek açık ve alışılır bir dilde açıklanabilir olması gerekliliğini de kapsamaktadır. Düzenlemeye göre şeffaflık ve tarafsızlık bağımsız otoriteler veya uzmanlar denetimiyle ya da kamu makamları tarafından düzenli olarak gözden geçirilen sertifikasyon süreci sağlanabilir.[20]
(5) “Kullanıcı kontrolünde olma ilkesi”ne göre kullanıcı otonomisi arttırılmalıdır. “Adalet sisteminde yer alan uzmanlar; adli kararları, sonucu üretmek ve belirli bir durumun spesifik bir özelliğiyle zorunlu olarak bağlı olmayan devam etmek için kullanılan bilgiyi her an gözden geçirebilmelidir. Kullanıcı yapay zekâ araçları tarafından teklif edilen çözümlerin bağlayıcı olup olmadığı, farklı seçeneklerin söz konusu olup olmadığı ve hukuki danışmanlık hakkı veya mahkemeye erişim hakkı olup olmadığı konusunda açık ve anlaşılır bir dilde bilgilendirilmelidir. Kullanıcılar aynı zamanda yapay zekânın hukuki sürecin öncesinde veya esnasında işlenmesinde, davasının AİHS madde 6 sebebiyle doğrudan mahkeme tarafından dinlenilmesini talep edebilirler.”[21]
Etik Şartının uygun bir şekilde takip edilmesini sağlamak için revize edilmiş yol haritası ‘CEPEJ Yargı Sistemlerinde ve Çevrelerinde Yapay Zekâ Kullanımına İlişkin Etik Şartın Uygun Bir Şekilde Takip Edilmesini Sağlamak için Revize Edilmiş Yol Haritası’ (Revised Roadmap for Ensuring an Appropriate Follow-Up of the CEPEJ Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and Their Environment) kabul edilmiştir.[22] Düzenlemede AB gelişmelerine de dikkat çekilmiştir.[23] “Siber Adalet ve Yapay Zekâ Kaynak Merkezi” (Resource Centre on Cyberjustice and Artificial Intelligence) kurulması düzenlenmiştir.[24]
İkinci Avrupa Konseyi düzenlemesi ise “Yapay Zekâ Komitesi” (Committee on Artificial Intelligence) tarafından çıkarılan “Revize Edilmiş Sıfır Taslak [Çerçeve] Yapay Zekâ, İnsan Hakları, Demokrasi ve Hukukun Üstünlüğü Sözleşmesi” dir.[25] Bu Sözleşme henüz son halini almamış hali hazırda bağlayıcı olmayan bir düzenlemedir.
Sözleşmenin birinci maddesinde düzenlemenin amacının yapay zekâ sistemlerinin tasarımının, geliştirilmesinin ve uygulanmasının insan haklarına saygı, demokrasinin işleyişi ve hukukun üstünlüğüne uygunluk ile tamamen tutarlı olmasını sağlamayı amaçlayan belirli temel ilke, kural ve hakları belirlemek olduğu belirtilmiştir. Sözleşmenin taraflarına Sözleşmede belirtilen ilke, kural ve hakların yürürlüğe girmesi için kendi iç mevzuatında gerekli önlemleri alma yükümlülüğü getirilmiştir.[26] Ayrıca Sözleşme hükümlerinin taraflarca etkili bir şekilde uygulanmasını sağlamak için bir takip mekanizması öngörülmüştür.[27] İkinci madde yapay zekâ sistemleri tanımına ilişkindir. Üçüncü madde bu çalışma konusu açısından önemli bir madde olup “Ayrım Yapmama İlkesi” düzenlenmiştir. Düzenlemeye göre Sözleşme hükümleri taraflarca cinsiyet, toplumsal cinsiyet, cinsel yönelim, ırk, renk, dil, yaş, din, siyasi veya diğer herhangi bir görüş, ulusal veya sosyal köken, ulusal bir azınlık bağlantısı, mülkiyet, doğum, sağlık durumu, engellilik veya başka bir statü ile veya bu gerekçelerin bir veya daha fazlasının birleşimine dayalı olarak ayrımcılık yapılmadan uygulanacaktır.
Kapsama ilişkin 4. maddede sözleşmenin insan haklarına saygı, demokrasinin işleyişi ve hukukun üstünlüğüne riayet ile ilgili konuları içeren bir bağlamda kullanılan yapay zekâ sistemlerinin tasarımı, geliştirilmesi ve uygulanmasına uygulanacağı belirtilmiştir.[28] Uygulanabilirlik açısından faaliyetlerin kamu veya özel aktörler tarafından gerçekleştirilip gerçekleştirilmediğine bakılmaksızın sistemlerin yaşam döngüleri boyunca uygulanacağı düzenlenmiştir.[29] Ancak aynı maddede bir istisna düzenleme getirilmiş ve Sözleşmenin, millî savunmaya ilişkin amaçlarla kullanılan yapay zekâ sistemlerinin tasarımı, geliştirilmesi ve uygulanmasına uygulanmayacağı belirtilmiştir.[30]
Sözleşme madde 5 hükmünde ‘Resmi Makamlara İlişkin Yükümlülükler’ (Obligations Relating To Public Authorities), madde 6 hükmünde ‘İnsan Haklarına Saygıya İlişkin Gereklilikler’ (Requirements Regarding Respect For Human Rights) ve madde 7 hükmünde ‘Demokratik Kurumlara ve Hukukun Üstünlüğüne Saygıya İlişkin Gereklilikler’ (Requirements Regarding Respect for Democratic İnstitutions and the Rule of Law) konularına ilişkin düzenlemeler bulunmaktadır.
Sözleşmenin IV. Bölümü olan ‘Yapay Zekâ Sistemlerinin Tasarımı, Geliştirilmesi ve Uygulanmasının Temel İlkeler” (Fundamental Principles Of Design, Development And Application Of Artificial İntelligence Systems) bölümünde sırasıyla şu ilkeler belirlenmiştir: eşitlik ve ayrım yapmama ilkesi (principle of equality and anti-discrimination) (madde 12), gizlilik ve kişisel verilerin korunması ilkesi (principle of privacy and personal data protection) (madde 13) hesap verilebilirlik, mesuliyet ve hukuki sorumluluk ilkesi (principle of accountability, responsibility and legal liability) (madde 14), şeffaflık ve gözetim ilkesi (principle of transparency and oversight) (madde 15), güvenlik ilkesi (principle of safety) (madde 16) ve güvenli inovasyon ilkesi (principle of safe innovation) (madde 17).
Sözleşmenin ‘Usule İlişkin İlave Tedbirler’ (Additional Procedural Safeguards) başlıklı 20. Maddesi; yapay zekâ kararlarının insan tarafından denetlenmesi hakkı, bir insan yerine bir yapay zekâ sistemi ile etkileşimde bulunduğunu bilme hakkı ve uygun olduğu durumlarda, böyle bir sisteme ek olarak veya onun yerine bir insan ile etkileşim seçeneği olması hakkı gibi hakları kapsamaktadır. Yeni hakların vurgulanması sebebiyle Sözleşme, önemli ve yenilikçidir.
Sözleşmenin 21. maddesinde 19. ve yukarıda incelenen 20. maddelerde belirtilen hakların kullanılmasına ilişkin kısıtlamaların, yalnızca meşru bir kamu yararının gözetilmesi amacıyla demokratik bir toplumda gerekli ve orantılı olduğu durumlarda kanunla sağlanabileceği düzenlenmiştir.
Sözleşmenin VII. Bölümünde Takip ve İşbirliğine İlişkin düzenlemeler getirilmiştir.[31] Taraf ülkeler madde 29 gereği yapay zekâ sistemlerinin risk ve etki değerlendirmesi gerekliliklerine uygunluğun denetlenmesi ve denetlenmesi ulusal denetim makamları belirleyebileceklerdir.
Sözleşmenin imza ve yürürlüğe girişi madde 33 de düzenlenmiştir. Sözleşmenin hükümlerine madde 36 gereği çekince koyma imkânı bulunmamaktadır.
Özetle bu sözleşme IV. Bölümde yapay zekâ sistemlerinin tasarımı, geliştirilmesi ve uygulanmasının temel ilkelerini düzenlediği için önemlidir. Eşitlik ve Ayrım Yapmama, Gizlilik ve Kişisel Verilerin Korunması, Hesap Verebilirlik, Mesuliyet ve Hukuki Sorumluluk Şeffaflık ve Gözetim, Güvenlik ve Güvenli İnovasyon İlkelerine ek olarak insan tarafından denetlenmesi hakkını getirmesi, bir insan yerine bir yapay zekâ sistemi ile etkileşimde bulunduğunu bilme hakkına ve uygun olduğu durumlarda, böyle bir sisteme ek olarak veya onun yerine bir insan ile etkileşim seçeceği olması hakkını da düzenlemesi açısından önemlidir.
II. Avrupa Birliği
"Avrupa Yapay Zekâ Stratejisi” (European AI Strategy) Avrupa Birliği’ni (AB) yapay zekâ konusunda dünyanın bir numaralı merkezi haline getirmeyi ve yapay zekâyı insan merkezli ve güvenilir olmasını sağlamayı amaçlamaktadır.[32] AB’nin bu alanla bağlantılı özellikle “Veri” konusunda önemli düzenlemeleri bulunmaktadır. Örneğin “Veri Yönetişim Yasası” (Data Governance Act) Mayıs 2022’de kabul edilmiştir. Bu düzenlemenin amacı, aracı yapılar kurularak kişisel ve kendi kişisel verilerinin paylaşımını teşvik etmektir. Ayrıca “Veri Yasası” (Data Act), “Açık Veri Direktifi” (Open Data Directive), “AB Veri Stratejisi” (EU Strategy for Data), “Güvenilir Yapay Zekâ için Etik Esaslar (Ethics Guidelines for Trustworthy AI)[33], “Sorumluluk Direktifi” (Liability Directive)[34] bulunmaktadır. 19 Şubat 2020 tarihinde AB Komisyonu Mükemmellik ve Güvenilirliğe Avrupa Yaklaşıma ilişkin “Yapay Zekâya ilişkin Beyaz Kitap” (White Paper on AI) yayınlamıştır.[35] “Yapay Zekâ Yasası” (Artificial Intelligence Act) bu alandaki önemli düzenlemelerden biridir.[36]
Henüz yürürlüğe girmemiş olup kapsamına ilişkin tartışmaların devam ettiği bu yasanın amacı Avrupa Birliğinin teknolojik liderliğini korumak ve Avrupalıların Birlik değerlerine, temel haklara ve ilkelere göre işleyen ve gelişmiş yeni teknolojilerden yararlanmasını sağlamak olarak belirtilmiştir.[37] Ayrıca düzenlemenin açıklama bölümünde dört amaç belirtilmiştir. Bunlar; Birlik pazarına sunulan ve kullanılan yapay zekâ sistemlerinin güvenli ve birlik değerleri ve temel haklara ilişkin mevcut yasalara saygılı olmasını sağlamak; yapay zekâda yatırım ve yeniliği kolaylaştırmak için hukuki güvenliği sağlamak; yapay zekâ sistemlerine uygulanacak güvenlik ve temel haklara ilişkin mevcut yasaların etkin uygulanmasını ve yönetişimini geliştirmek; yasal, güvenli ve güvenilir yapay zekâ uygulamaları için tek pazarın geliştirilmesini kolaylaştırmak ve pazarın bölünmesini önlemek olarak sayılmıştır.[38]
Bu düzenleme yapay zekânın belirli kullanımları için geliştirici, konuşlandırıcı ve kullanıcılara açık koşullar ve yükümlülükler getirmektedir. Ayrıca özellikle küçük ve orta ölçekli işletmelerin idari ve maddi yüklerini azaltmayı amaçlamaktadır.
Yapay zekâya ilişkin bu düzenlemenin dayanağı iç pazarın kurulması ve işleyişini sağlamaya yönelik tedbirlerin alınmasını öngören Avrupa Birliğinin İşleyişi Hakkında Anlaşma (Treaty on the Functioning of the European Union)’nın 114. maddesi olarak belirtilmiştir.[39] Düzenlemede “ikame yetki” (subsidiarity principle) tartışılmış, teklifin amaçlarına Birlik düzeyinde düzenleme ile daha iyi ulaşılabileceğine ve birlik düzenlemesiyle yapay zekâ içeren mal ve hizmetlerin serbest dolaşımını engelleyen biriyle çelişmesi muhtemel ulusal çerçevelerin tek pazarı daha fazla bölmesinin engellenebileceği ve birlik düzeyinde ortak eylem ile Birliğin dijital egemenliğinin korunabileceği ve küreseller kuralları ve standartları şekillendirmek için düzenleyici yetkilerini kullanabileceği belirtilmiştir.[40] Düzenleme, Avrupalıların yapay zekâ kullanımına güvenmesini ve risk olduğunda istenmeyen sonuçların engellemesini sağlamayı amaçlamaktadır.
Düzenleyici Çerçeve, yapay zekâyı risk gruplarına ayırmış ve dört risk grubu belirlemiştir. Bu riskler: “Kabul Edilemez Risk” (Unacceptable risk), “Yüksek Risk” (High risk), “Kısıtlı Risk” (Limited risk), “Minimum veya 0 Risk” (Minimal or no risk) olarak gruplandırılmaktadır. Bu risk gruplarına ilaveten Düzenleyici Çerçeve’de madde 5 hükmünde “Yasak Yapay Zekâ Uygulamaları” belirtilmiştir. Risk gruplarının oluşturulmasının amacı özellikle “Yüksek Risk” grubundaki uygulamalar için yasal zorunluluklar getirilmesidir. Örneğin II. Bölüm yüksek risk grubundaki yapay zekâ için veri, veri yönetişimi, dokümantasyon ve kayıt tutma, şeffaflık, kullanıcılara bilgi sağlanması, insan gözetimi, sağlamlık, doğruluk ve güvenlik ile ilgili yasal koşulları düzenlemektedir.[41] III. Bölüm yüksek risk kapsamındaki yapay zekâ sağlayıcılarına bir takım açık yatay yükümlülükler getirmektedir.[42] IV. Bölümde uygunluk değerlendirme prosedürüne onaylı kurumların bağımsız üçüncü kişi olarak dahil olması için çerçeveyi belirlemektedir. V. Bölüm her yüksek risk grubu yapay zekâ sistemi için izlenecek uygunluk değerlendirme prosedürünü detaylı olarak açıklamaktadır. Sınırlı risk grubu için sadece şeffaflık düzenlemeleri bulunmaktadır.
Madde 48’de “AB Uygunluk Beyanı” prosedürü getirilmiştir. Bu maddeye göre sağlayıcı her yapay zekâ sistemi için, sistem piyasa arz edildikten veya sunulduktan sonra 10 yıl boyunca ulusal yetkili makamının tasarrufunda bulunmak üzere yazılı AB uygunluk beyanı düzenlemelidir. Uygunluk beyanında ilgili sistemin II. Bölümdeki yükümlülükleri sağladığı belirtilmesi gerektiği düzenlenmiş sonuç olarak sağlayıcı ilgili Bölümde belirtilen yükümlülüklere uygunluk sorumluluğunu üstlenmiş olacaktır.[43] Madde 49 ise CE uygunluk işaretine ilişkin bir düzenleme getirmektedir. Düzenlemeye göre yüksek risk grubu yapay zekâ için bu işaret okunaklı ve silinmez şekilde eklenmelidir, eğer mümkün olmuyorsa veya durumun doğası gereği garanti edilmediği durumlarda ambalaja veya beraberindeki dokümantasyona eklenmelidir.
Madde 52/1-Belirli Yapay Zekâ sistemlerine ilişkin Şeffaflık (Transparency obligations for certain AI systems) maddesine göre: Sağlayıcılar, koşullardan ve kullanım bağlamından açıkça anlaşılmadığı sürece, gerçek kişilerle etkileşime girmesi amaçlanan yapay zekâ sistemlerinin, gerçek kişilerin bir yapay zekâ sistemi ile etkileşime girdikleri konusunda bilgilendirecekleri şekilde tasarlanması ve geliştirilmesini sağlama yükümlülüğü altındadır. Ancak bu yükümlülüğün istisnası da aynı madde içinde 52/1 hükmünde “Bu yükümlülük, yasa tarafından izin verilen yapay zekâ sistemleri için geçerli olmayacaktır. Suçları tespit etmek, önlemek, soruşturmak ve kovuşturmak, bu sistemler kamunun bir suçu ihbar etmesi için kullanılabilir” düzenlemesiyle sınırlandırılmıştır. Benzer şekilde; madde 52/3 hükmünde kullanıma kanunen izin verildiği durumlarda birinci bent uygulanmayacağı ifade edilmiş ve suçları tespit etmek, önlemek, soruşturmak ve kovuşturmak veya ifade özgürlüğü hakkının ve sanat özgürlüğü hakkının kullanılması ve AB Temel Haklar Şartı'nda güvence altına alınan ve tabi olan bilimler üçüncü şahısların hak ve özgürlükleri için uygun güvenceler düzenlenmiştir. Ayrıca “Avrupa Yapay Zekâ Kurulu” (European Artificial Intelligence Board) oluşturulması ön görülmüştür.[44]
Madde 53’de ise sistemlerin piyasaya sürülmeden önce belirli bir plana göre ve sınırlı bir süre için geliştirilmesi, test edilmesi ve onaylanmasını kolaylaştıran kontrollü ortam oluşturan “Yapay zekâ düzenleyici korumalı alanlar” (AI regulatory sandbox) konusu düzenlenmiştir. Madde 61 ve devamında ise pazar sonrası izleme, bilgi paylaşımı, pazar gözetimi, insan gözetimine ilişkin düzenlemeler yer almaktadır.[45]
Özet olarak bu düzenleme ile yapay zekâ sistemleri gruplara ayrılmış ve özellikle yüksek risk grubu için başvuru şartları belirlenmiştir. Kullanıcılara ve sunuculara özel yükümlülükler getirilmiştir, örneğin: yeterli risk değerlendirme ve azaltma sistemleri, riskleri ve ayrımcı sonuçları en aza indirmek için sistemi besleyen veri setlerinin yüksek kalitesi; sonuçların izlenebilirliğini sağlamak için aktivite kaydı; yetkililerin sistemle uyumluluğunu değerlendirmesi için sistem ve amacı hakkında gerekli tüm bilgileri sağlayan ayrıntılı belgeler; kullanıcıya açık ve yeterli bilgi; riski en aza indirmek için uygun insan gözetimi önlemleri ve yüksek düzeyde sağlamlık, güvenlik ve doğruluk gibi.[46] Ayrıca bu sistemler için hizmete sunulmadan veya piyasaya arz edilmeden önce bir uygunluk değerlendirmesi yapılması istenmiştir, piyasaya arz edildikten sonra da belirli yaptırım ve denetim öngörülmüştür. Son olarak da bu süreçler için de hem Avrupa hem ulusal düzeyde bir yönetişim yapısı öngörülmüştür.[47]
“Hukukta yapay zekâ kullanıma” ilişkin iki düzenleme dikkat çekicidir: kolluk kuvvetlerinin eylemlerinde kullanımına ilişkin madde 38 ve adaletin idaresi ve demokratik süreçler için tasarlanan belirli yapay zekâ sistemlerine ilişkin madde 40 düzenlemesi. Her iki düzenlemede yukarıda belirtilen koşullara tabii olan “yüksek risk grubu” kapsamında sayılmıştır.
Ancak Mart 2023 sonu gibi kabul edilmesi beklenen düzenleme hem yapay zekâ tanımında hem de yüksek risk grup tanımında anlaşma olmadığı için yürürlüğe girmemiştir. Tartışmanın ana konusu “Genel Amaçlı Yapay Zekâ” (General Purpose AI) AB düzenlemesinde tanımlanmış olmasına rağmen “basit çok amaçlı yapay zekâ sistemleri” gibi çok çeşitli görevlere uyarlanamayan, sınırlı sayıda uygulama için geliştirilen, yapay zekâ sistemleri bu tanım içinde yer almamaktadır. Ancak bu sistemlerin de önemli zarara yol açma ihtimali bulunduğu için yönetmeliğin risk yönetimi gereklilikleriyle uyumlu olup belirtilen şartlara uymaları istenmiştir.[48] Düzenlemenin önsözüne eklemeler yapılarak, Yapay Zekâ Yasa’sının belirli yükümlülükleriyle ilgili olarak yeni bir ek getirilerek çözüm yolları bulunmaya çalışılmıştır.[49]
Bu konuda ilginç bir gelişme ise Politico dergisine yansıyan bir haberde ChatGPT’ye AB düzenlemeleri kapsamında kendisini yüksek risk grubunda görüp görmediği sorulduğunda verdiği yanıt şöyle olmuş: “AB, zararlı ve yanıltıcı içerik oluşturma potansiyelleri göz önüne alındığında, üretici yapay zekâ ve büyük dil modellerini "yüksek riskli" teknolojiler olarak belirlemeyi düşünmelidir. AB, bu teknolojilerin sorumlu bir şekilde geliştirilmesi, konuşlandırılması ve kullanılması için uygun koruma önlemleri, izleme ve gözetim mekanizmalarını içeren bir çerçeve uygulamayı düşünmelidir.”[50]
III. Amerika Birleşik Devletleri
Amerika Sistemi incelendiğinde henüz yapay zekâ konusunda federal bir yasa bulunmadığı bazı eyaletlerde düzenlemeler getirildiği tespit edilmiştir. Avrupa Konseyi düzenlemelerine benzer düzenlemeler içeren bağlayıcı olmamakla birlikte önemli çalışmalardan biri “Amerikan Halkı İçin Otomatik Sistemleri Çalıştıran Yapay Zekâ Hakları Bildirgesinin Planı” Ekim 2022 (Blueprint for an AI Bill of Rights Making Automated Systems Work for American People) dir.[51] Bildirgede (Yapay Zekâ Haklar Bildirgesi (AI Bill of Rights)) düzenlemenin bağlayıcı olmadığı, ABD’nin hükümet politikasını oluşturmadığı, devlet kurumunun herhangi bir yasal faaliyetini yasaklamayı veya sınırlamayı amaçlamadığı açıkça belirtilmiştir.[52] Yapay Zekâ Haklar Bildirgesi Planı, Amerikan kamuoyunu araştırmacılar, teknoloji uzmanları, savunucular, gazeteciler, politika yapıcılar ve ABD’deki ve dünyadaki topluluklar tarafından tanımlanan birçok potansiyel ve fiili zarara karşı korumaya yardımcı olmayı amaçlamaktadır.[53] Bu otomatik sistemlerden etkilenenler ve geliştiren, tasarlayan, dağıtan, değerlendiren veya politika oluşturanlar için referans olarak kullanılmak üzere tasarlanmıştır.
Yapay Zekâ Haklar Bildirgesi Planı katkısı değerlendirildiğinde Bildirgede öncelikle otomatik sistemler, hassas veri gibi önemli kavramlar tanımlanmıştır. Daha sonra beş temel ilke düzenlenmiştir: (1) Güvenli ve Etkili Sistemler (Safe and Effective Systems), (2) Algoritmik Ayrım Korumaları (Algorithmic Discrimination Protections), (3) Veri Gizliliği (Data Privacy), (4) Bildirim ve Açıklama (Notice and Explanation), (5) İnsan Alternatifleri, Değerlendirme ve Geri Dönüş (Human Alternatives, Consideration and Fallback).
(1) Güvenli ve Etkili Sistemler İlkesi:
Güvensiz ve etkili olmayan sistemlerden korunmaya ilişkin bir ilkedir. Otomatik sistemlerin, sistem endişeleri, riskleri ve potansiyel etkilerini belirlemek için çeşitli paydaş, topluluklar ve alan uzmanlarıyla görüşülerek geliştirilmesi gerektiği belirtilmiştir. Düzenlemeye göre sistemler amaçlanan kullanımlarına göre güvenli ve etkili olduklarını, amaçlanan kullanımın ötesindekiler de dahil olmak üzere güvenli olmayan sonuçların hafiflediğini ve etki alanına özgü standartlara bağlı kaldıklarını gösteren dağıtım öncesi testlerden, risk belirleme ve azaltma işlemlerinden ve sürekli izlemeden geçmeliler.[54]
(2) Algoritmik Ayrım Korumaları İlkesi:
Bu ilke ile algoritmalar tarafından ayrımcılığına maruz kalınmaması ve sistemlerin eşitlikçi şekilde kullanılması ve bu şekilde tasarlanması gerekliliği düzenlenmiştir.[55]
(3) Veri Güvenliği İlkesi:
Yerleşik korumalar aracılığıyla kötü niyetli veri uygulamalarından korunma ve bireylerin haklarındaki verilerin nasıl kullanıldığı konusunda söz sahibi olma hakkı düzenlenmiştir.[56] Hassas alanlara ilişkin verilerin daha da dikkatli korunması gerektiği belirtilmiştir. Örneğin 1974 Gizlilik Yasası federal kayıt sistemlerindeki kişisel bilgiler için veri saklama sınırlamaları da dahil olmak üzere gizlilik korumalarının gerektiği ve bireylerin verilere erişim ve verilerini düzeltme konusundan genel hakları olduğunu düzenlenmiştir.
(4) Bildirim ve Açıklama İlkesi:
Kişilerin otomatikleştirilmiş bir sistemin kullanıldığını bilmeleri ve sistemin kendilerine etkileyen sonuçlara nasıl ve neden katkıda bulunduğunu anlamaları gerektiği düzenlemiştir.[57]
(5) İnsan Alternatifleri, Değerlendirme ve Geri Dönüş İlkesi:
Bu ilkeye göre sistem devre dışı bırakılabilmeli ve uygun olduğu durumlarda karşılaşılan sorunları hızlı değerlendirip çözebilecek bir kişiye ulaşılabilmelidir. Uygunluk kriterinin belirli bağlamda makul beklentilere bağlı olarak ve geniş erişilebilirliği sağlamaya ve halkı özellikle zararlı etkilerden korumaya odaklanarak belirlenmesi gerektiği ve bazı durumlarda da insan veya başka alternatif gerekliliğinin kanundan kaynaklanabileceği belirtilmiştir.[58]
Yapay Zekâ Haklar Bildirgesinden başka “Federal Hükümette Güvenilir Yapay Zekâ Kullanımının Teşvik Edilmesine İlişkin 13960 Sayılı Yürütme Emri” (Executive Order 13960 on Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government) bulunmaktadır. Bu Yürütme Emri ile federal hükümetin yapay zekâ kullanımını yöneten ilkeleri düzenlenmiştir. Belirli federal kurumların yapay zekâyı ulusal güvenlik veya savunma dışındaki amaçlar için tasarlarken, geliştirirken, satın alırken veya kullanırken bağlı kalması gereken dokuz ilke belirtilmiştir. Bu ilkelere göre yapay zekâ (a) yasal ve ulusun değerlerine saygılı; (b) amaçlı ve performans odaklı; (c) doğru, güvenilir ve etkili; (d) güvenli, emniyetli ve dayanıklı; (e) anlaşılır; (f) sorumlu ve izlenebilir; (g) düzenli olarak izlenir; (h) şeffaf ve (i) sorumlu olmadır. Yapay Zekâ Haklar Beyannamesi Planı, Yürütme Emri ile tutarlıdır. Bazı ABD devlet kurumları, yapay zekâ sistemlerinin etik kullanımı için özel çerçeveler geliştirmiştir.[59] Enerji Bakanlığı koordinasyonu denetleyen ve Enerji Bakanlığı Yapay Zekâ Stratejisinin uygulanması konusunda tavsiyelerde bulunan ve yapay zekâ sistemlerinin etik kullanımı ve geliştirilmesine ilişkin sorunları ve/veya sorunları ele alan Yapay Zekâ İlerleme Konseyini etkinleştirmiştir. Savunma Bakanlığı Yapay Zekâyı benimsemiştir. Ulusal güvenlik ve savunma faaliyetlerine özel olarak uyarlanmış Sorumlu Yapay Zekâ için İstihbarat Etik İlkeleri ve ilkeleri. Benzer şekilde, ABD İstihbarat Topluluğu misyonunu ilerletmek için yapay zekânın geliştirilip geliştirilmeyeceği ve nasıl kullanılacağı konusunda personele rehberlik etmek için Yapay Zekâ Topluluğu için Yapay Zekâ Etiği İlkelerini ve ayrıca uygulamaya yardımcı olacak bir Yapay Zekâ Etik Çerçevesini geliştirmiştir. Bazı eyalet yasama organları, duruşma öncesi risk değerlendirmelerinin kullanımına ilişkin güçlü şeffaflık ve geçerlilik gereklilikleri getirmiştir.[60]
ABD düzenlemeleri açısından yukarıda belirtildiği üzere özel düzenlemeler bulunmakla birlikte bağlayıcı federal bir düzenleme bulunmamaktadır. Ancak bağlayıcı olmayan düzenlemede ise yine benzer ilkeler vurgulanmıştır. Güvenlik, ayrım yapmama, şeffaflık, yapay zekâ kullanıldığını bilme hakkı, uygun olduğunda devre dışı bırakabilme, insana ulaşabilme ya da insan alternatifi talebinde bulunabilme hakkı düzenlenmiştir.
IV. Değerlendirme:
Yapay zekâya ilişkin değerlendirmeler çalışmada sınırlayıcı olarak üç başlık altında yapılmıştır ancak bu düzenlemeler dışında gerek uluslararası alanda[61] gerekse ulusal alanda düzenlemeler ayrıca da bu alandaki önemli şirketlerinde kendi düzenlemeleri[62] bulunmaktadır. Düzenlemelerde temel ilkeler konusunda paralellikler bulunmaktadır. Asgari güvenceyi sağlayan ilkeleri düzenleyen uluslararası bir çerçevenin en kısa zamanda kabul edilmesi yapay zekâ sistemlerindeki hızlı gelişme de dikkate alındığında hayati öneme sahiptir.
Türkiye’nin de Ulusal Yapay Zekâ Stratejisi (UYZS) 2021-2025 bulunmaktadır.[63] Türkiye için hem Avrupa Konseyi üyesi olması sebebiyle çalışmada incelenen Avrupa Konseyi düzenlemeleri hem de uyum sürecinde yasal düzenlemelerin uyumlaştırılması açısından AB düzenlemeleri ayrı önem arz etmektedir. İncelenen çalışmalarda görüldüğü üzere öncelikle yapay zekâ tanımı önemlidir. Özellikle AB örneğinde yüksek risk grubunda tanımlanan yapay zekâ sistemlerinin tabii olduğu kurallar ve yüklenecekleri sorumluluklar açıkça belirtilmiştir. AB yüksek risk grubundaki yapay zekâ için veri, veri yönetişimi, dokümantasyon ve kayıt tutma, şeffaflık, kullanıcılara bilgi sağlanması, insan gözetimi, sağlamlık, doğruluk ve güvenlik ile ilgili yasal koşulları düzenlemektedir. Avrupa Konseyi düzenlemelerinde insan haklarına saygı, hukukun üstünlüğü, ayrım yapmama, güvenlik, şeffaflık, hesap verilebilirlik, tarafsızlık ilkeleri ve kullanıcı kontrolünde olma, bir yapay zekâ sistemi ile etkileşimde bulunduğunu bilme ve gerektiğinde yapay zekâ yerine insan seçme hakları vurgulanmıştır. ABD düzenlemelerinde güvenli, ayrım yapmama, gizlilik, kişilerin otomatikleştirilmiş bir sistemin kullanıldığını bilmeleri, sistem devre dışı bırakılabilmeli ve uygun olduğu durumlarda bir kişiye ulaşılabilme hakkı, şeffaf, sorumlu olma ilkeleri benimsenmiştir. Özet olarak üç düzenlemenin ortak yanları şeffaflık, güvenilir olmak, ayrım yapmamak, insan gözetimi, yapay zekâ olduğunu bilme hakkı gibi temel ilkeler sayılabilir.
Günümüzde yapay zekâ kullanımına ilişkin bir düzenleme olmamakla birlikte mevcut bazı kurallar yapay zekâ kullanımı için de kullanılabilmektedir. Örneğin Anayasa’da yer alan temel haklar, medeni hakların kullanımına ilişkin düzenlemeler ve ceza kanunlarında yer alan hükümler ile kişisel verilerin korunmasına ilişkin pozitif hukuk kuralları kullanılabilmektedir. Ancak yapay zekâ kullanımına özgü sorunların dikkate alınılarak yeni düzenlemeler getirilmesi özellikle çok hızlı gelişen ve mevcut hukuk sisteminin ve tanımların yetersiz kaldığı durumda önemlidir. Bu konuda ayrıca; alan dinamikleri dikkate alınarak ihtiyaca göre düzenlemeler getirilebilir. Örneğin yapay zekânın tıp alanında kullanımı, taşıma araçları için kullanımı gibi durumlara özgü özel düzenlemeler getirilebilmesi mümkündür. Ancak hem her alt alan düzenlemesi mümkün olmayacağı ve düzenlense bile hızlı gelişen ve değişen yapay zekâ için yetersiz kalacağı için bu çalışmada vurgulandığı üzere yapay zekâ kullanımında temel ilkelerin benimseneceği özellikle de mümkünse uluslararası bir düzenlemenin kabulü önemli belki de en yararlı çözüm olacaktır.
Yapay zekâ kullanımı için hukuksal çerçeve gerekliliği tartışması içinde hukuk için yapay zekâ kullanımı konusu da ayrı dikkate alınması gereken konulardandır. Çalışmada incelenen Avrupa Konseyi düzenlemelerinin her ikisi de adlarından anlaşılacağı üzere hukuk alanına ilişkindir: “Adli Sistem ve Çevrelerinde Yapay Zekânın Kullanımına İlişkin Avrupa Etik Şartı” ve “Revize Edilmiş Sıfır Taslak [Çerçeve] Yapay Zekâ, İnsan Hakları, Demokrasi ve Hukukun Üstünlüğü Sözleşmesi”. AB Yapay Zekâ Yasası kapsamında ise yapay zekânın hukuk alanında kullanıldığı iki madde yüksek risk grubu altında sayılarak çalışmada ele alınmıştır. Yapay zekânın kullanıldığı her alanının kendi dinamiklerine göre farklı düzenleme gerekecektir. Benzer şekilde hukukun alt alanlarına göre de farklı düzenlemelere ihtiyaç duyulabilecek, örneğin kamu hukuku ve özel hukuk ayrımına göre farklı kullanımlar olabileceği için farklı düzenlemeler olabilecek, yapay zekâ kullanımının sınırlandırılması gündeme gelebilecektir. Ancak öncelikle insan hakları ve hukukun üstünlüğü ilkesi, şeffaflığın, güvenilirlik ve hesap verilebilirliğin dikkate alınarak genel çerçevenin düzenlenerek temel ilkelerin belirlenmesi gerekmektedir.
Her ne kadar çalışmada yapay zekâ kullanımında yasal çerçeve ihtiyacı ve olmazsa olmaz bazı ilkelerin benimsenmesi ileri sürülmüş olsa da alanın dinamikleri dikkate alındığında yapılacak çalışmaların disiplinlerarası olması gerekliliği kaçınılmazdır. Hazırlık sürecinde sadece hukukçuların yer alacağı düzenlemelerin amaca ulaşması olası değildir. Tüm paydaşların sürece dahil edilmesi önemli olacaktır. Düzenlemeler tartışılırken bilgisayar mühendisleri, yazılımcılar, hukukçular, alana göre değişecek uzmanların sürece dahil edilmesi gerekecektir. Hukuk bakış açısı olmadan yapılacak programlar ve düzenlemelerde temel insan hakları etkilenebileceği ve telafisi zor mağduriyetler doğabileceği için alana hâkim “uzman hukukçu“ bulundurma şartının getirilmesi önerilebilir. Yapay zekâ kullanımının günümüzde her alana girmiş olması hukuk eğitimini ve müfredatı da değiştirecektir. Disiplinlerarası ders seçenekleri, yapay zekâ sistemlerinin işleyişine yönelik eğitimler önem kazanacaktır. Özellikle bu alandaki tartışmalarda dile getirilen “Alan uzmanlığı“ (domain expertise), “digital okur yazarlık“ (digital literacy) kavramları önem kazanacak, güncel gelişmeleri takip edip katkı yapabilmek için “teknik cehalet“ (technical illiteracy) sorunu çözümlenmeye çalışılacaktır.
Farklı disiplinlerin dahil olmasına ek olarak konunun bağlantılı boyutlarına bakılmadan da yapay zekâ kullanımı düzenlenemez. Örneğin yapay zekâ kullanımın olmazsa olmazı veri (data) konusundur. Eksik veya taraflı veri çıkacak sonucu etkileyecektir. O yüzden yapay zekâ kullanımına ilişkin düzenlemeler tartışılırken AB örneğinde olduğu gibi veri konusu, veri güvenliği, veri kullanımı düzenlemeleri de birlikte düşünülmeli, yapılacak düzenlemeler birlikte dikkate alınmalıdır.[64] Ayrıca gizlilik, kişisel verilerin korunması, sistemin güvenlik boyutu (cybersecurity) konuları da önemlidir. Çalışmada değerlendirilen üç düzenlemede görüldüğü üzere tanımlar, düzenlemeler benzerlik göstermektedir. Alana ilişkin gelişmeler ve düzenleme ihtiyacı benzer olduğu için uluslararası ortak ancak genel bir düzenleme getirilmesi hem hızla değişen, gelişen alana ayak uydurulması, denetlenmesi, güncellenmesi açısından önemli ve gereklidir.
Sonuç
Yapay zekâ kullanımın birçok yararı bulunmaktadır ancak sistemin “insan yararına” ve “insanlar için” olduğu unutulmamalıdır. Yapay zekâ kullanımı sisteme ve insanlara yardımcı olmalıdır. Ayrıca yapay zekânın sağlayacağı avantajlar ve temel insan hakları, hukukun üstünlüğü kavramları arasında gözetilecek denge çok önemlidir. Yapay zekâ insan hatasını telafi edebilmelidir ancak gerektiğinde de yapılacak kontrol iki yönlü olmalı ve yapay zekânın doğurabileceği hata insan kontrolüyle engellenmeli ya da düzeltilebilmelidir. Özellikle yapay zekânın hukuk alanında kullanımında ve karar alma aşamalarında ve kararların denetiminde insan faktörü çok önemlidir.
Sonuç olarak AB’nin hedefinde olduğu gibi “sürdürülebilir” ve “güvenilir” yapay zekâ kavramı çok önemlidir. Sistem hesap verilebilir olmalıdır. Bu çalışmada yapay zekâ kullanımında yasal çerçevenin önemine, uluslararası işbirliğinin önemine ve önemli gelişmelere dikkat çekilmiştir. Bu alanda yapılacak çalışmalar özellikle disiplinlerarası çalışmalar alanın gelişimine katkı sağlayacaktır.
Ayrıca konunun başka bir boyutu ise teknolojinin hâkim olduğu bu alanda ülkeler aynı alt yapı, teknolojiye sahip değildir. “Silahların eşitsizliği” (inequality of arms) ve “dijital bölünme” (digital divide) kavramları da kullanılan bu teknoloji açısından eşit olunmayan ortamda etki ve mağduriyet herkes için olmaktadır bu sebeple de alana ilişkin uluslararası düzenleme getirilmesi önemlidir. Özellikle getirilecek düzenlemenin merkezinde insan ve temel insan hakları düşüncesi olmalıdır. Çalışmayı bir temenni ile bitirirsek çalışmada incelenen düzenlemelerde belirli oranda gündeme Avrupa İnsan Hakları Mahkemesi ve Avrupa Adalet Divanı Eski Hâkimi, mevcut Letonya Cumhurbaşkanının Egil Levits’in yapay zekâ kullanımı sonrası dikkate alınması gereken yeni insan hakları kapsamında belirtiği dört temel insan hakkının en kısa zamanda kabul edilmesi önemlidir[65]: “İnsan Teması Hakkı” (Right to human contact), “İnsan mı yoksa yapay zekâ mı olduğunu bilme hakkı” (To know whether faced with human or AI), “Analiz ve kategorize edilmeme hakkı” (not to be analyzed and categorized) ve “Kara kutu olarak kalma hakkı” (right to stay as a black box).
Dipnotlar
OpenAI ChatGPT, Google Bard, Microsoft Sydney, Microsoft Tay, stable diffusion, Amazon Alexa, Google Assistant vb. ↩︎
Luke Taylor, ‘Colombian Judge says he used ChatGPT in Ruling’, The Guardian, (E.T. 17.07.2023) (https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling); Lauren Haughey, ‘World's first robot LAWYER is being sued by a law firm - because it 'does not have a law degree' (Mail Online, E.T. 17.07.2023) (https://www.dailymail.co.uk/sciencetech/article-11857529/Worlds-robot-LAWYER-sued-law-firm-does-not-law-degree.html) ; Karen Sloan, ‘Bar exam score shows AI can keep up with 'human lawyers,' researchers say’, (The Reuters, 17.07.2023) (https://www.reuters.com/technology/bar-exam-score-shows-ai-can-keep-up-with-human-lawyers-researchers-say-2023-03-15) ↩︎
Jeremy Kahn, ‘Elon Musk and Apple cofounder Steve Wozniak among over 1,100 who sign open letter calling for 6-month ban on creating powerful A.I’ (The Fortune, E.T. 17.07.2023) ( https://fortune.com/2023/03/29/elon-musk-apple-steve-wozniak-over-1100-sign-open-letter-6-month-ban-creating-powerful-ai/,29.3.2023) ; (‘Future of Life Experiment, Pause Giant AI Experiments: An Open Letter’ https://futureoflife.org/open-letter/pause-giant-ai-experiments/) E.T. 17.07.2023 ↩︎
(n3) ↩︎
Center for AI Safety, ‘Statement on AI Risk’, (https://www.safe.ai/statement-on-ai-risk) E.T. 17.07.2023 ↩︎
EU-US Trade and Technology Council, European Commission, (https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/stronger-europe-world/eu-us-trade-and-technology-council_en) (E.T. 17.07.2023) ; (https://www.abc.net.au/news/2023-06-01/eu-and-us-move-to-draft-ai-code-of-conduct/102421834) E.T. 17.07.2023 ↩︎
Council of Europe European Commission for the efficiency of justice (CEPEJ) (https://www.coe.int/en/web/cepej/home,) (E.T. 16.07.2023) ; CEPEJ, ‘European Ethical Charter On The Use Of Artificial Intelligence (AI) In Judicial Systems And Their Environment’ (https://www.coe.int/en/web/cepej/artificial-intelligence-in-justice-systems) (E.T. 16.07.2023); European Commission For The Efficiency Of Justice (CEPEJ), ‘European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their Environment’, (Adopted at the 31st plenary meeting) (Strasbourg, 3-4.12.2018) (https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c) (Etik Şart) ↩︎
Council of Europe, ‘Revised Zero Draft [Framework] Convention On Artificial Intelligence, Human Rights, Democracy and the Rule of Law’, (Strasbourg, 6.1.2023) (CAI 2023/1) (https://rm.coe.int/cai-2023-01-revised-zero-draft-framework-convention-public/1680aa193f) (Revize Taslak) ↩︎
(https://www.coe.int/en/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in judicial-systems-and-their-environment);European Commission For The Efficiency Of Justice (CEPEJ), ‘European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their Environment’, (Adopted at the 31st plenary meeting) (Strasbourg, 3-4.12.2018) (https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c) (E.T. 16.07.2023) ↩︎
Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data, ETS No. 108 as amended by the CETS amending protocol No. 223 ↩︎
‘European Ethical Charter On The Use Of Artificial Intelligence (AI) In Judicial Systems And Their Environment’ (Etik Şart) ↩︎
(n11) 8 ↩︎
ibid ↩︎
ibid ↩︎
ibid ↩︎
(n11) 9 ↩︎
ibid ↩︎
(n11) 10 ↩︎
(n11) 11 ↩︎
ibid ↩︎
(n11) 12 ↩︎
European Commission for the Efficiency of Justice (CEPEJ), ‘Revised Roadmap for Ensuring an Appropriate Follow-Up of the CEPEJ Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and Their Environment’, (Document adopted at the 37th plenary meeting of the CEPEJ) (Strasbourg and online, 8-9.12.2021) (CEPEJ 2021/16) (https://rm.coe.int/cepej-2021-16-en-revised-roadmap-follow-up-charter/1680a4cf2f) (E.T 14.07.2023) ↩︎
(n22) 6 numaralı düzenleme ↩︎
(n22) 4 numaralı düzenleme ↩︎
(n8) ↩︎
(n8) madde 1/2 ↩︎
(n8) madde 1/3 ↩︎
(n8) madde 4/1 ↩︎
(n8) madde 4/2 ↩︎
(n8) madde 4/3 ↩︎
(n8) diğer başlıklar: Madde 27- Tarafların İstişaresi, Madde 28 Uluslararası İşbirliğine ilişkindir ↩︎
European Commission, A European approach to artificial intelligence (https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence) ↩︎
European Commission, Excellence and trust in artificial intelligence (https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/excellence-and-trust-artificial-intelligence_en) ↩︎
European Commission, Liability Rules for Artificial Intelligence, (https://commission.europa.eu/business-economy-euro/doing-business-eu/contract-rules/digital-contracts/liability-rules-artificial-intelligence_en); (https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52020IP0276); (https://commission.europa.eu/system/files/2022-09/1_1_197605_prop_dir_ai_en.pdf) (E.T. 14.07.2023) ↩︎
European Commission, ‘WHITE PAPER On Artificial Intelligence - A European approach to excellence and trust’ (Brussels, 19.2.2020) COM (2020) 65 final (https://commission.europa.eu/system/files/2020-02/commission-white-paper-artificial-intelligence-feb2020_en.pdf) (E.T. 14.07.2023) ↩︎
European Commission, ‘Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts’, (Brussels, 21.4.2021) COM (2021) 206 final 2021/0106 (COD), {SEC (2021) 167 final} - {SWD(2021) 84 final} - {SWD(2021) 85 final} (https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF), (Yapay Zekâ Yasası) ↩︎
(n36) Açıklayıcı Not (Explanatory Memorandum), 1.1. paragraf 1 ↩︎
(n36) Açıklayıcı Not, 1.1. paragraf 1 ↩︎
(n36) Açıklayıcı Not paragraf 2.1 ↩︎
(n36) paragraf 2.2 ↩︎
(n36) Madde 8-Gerekliliklere Uygunluk (Compliance with the requirements), Madde 9-Risk Yönetim Sistemi (Risk management system), Madde 10-Veri ve Veri Yönetişimi (Data and data governance), Madde 11-Teknik Dokümantasyon (Technical documentation), Madde 12-Kayıt Tutma (Record-keeping), Madde 13-Şeffaflık ve Kullanıcılara Bilgi Sağlanması (Transparency and provision of information to users), Madde 14-İnsan Gözetimi (Human oversight), Madde 15-Doğruluk, Sağlamlık ve Sibergüvenlik (Accuracy, robustness and cybersecurity) ↩︎
(n36) Madde 16- Yüksek Risk Yapay Zekâ Sağlayıcılarının Yükümlülükleri (Obligations of providers of high-risk AI systems), Madde 17- Kalite Yönetim Sistemi (Quality management system), Madde 18- Teknik Dokümantasyon Hazırlama Yükümlülüğü (Obligation to draw up technical documentation), Madde 19- Uygunluk Değerlendirmesi (Conformity assessment), Madde 20- Otomatik Oluşturulan Günlükler (Automatically generated logs), Madde 21- Düzenleyici Eylemler (Corrective actions), Madde 22- Bilgi Verme Görevi (Duty of information), Madde 23- Yetkili Makamlarla İşbirliği (Cooperation with competent authorities), Madde 24- Ürün üreticilerinin Yükümlülükler (Obligations of product manufacturers), Madde 25- Yetkili Temsilciler (Authorised representatives), Madde 26- İthalatçıların Yükümlülükleri (Obligations of importers), Madde 27- Distribütörlerin Yükümlülükleri (Obligations of distributors), Madde 28- Distribütörler, ithalatçılar, kullanıcılar veya diğer üçüncü kişinin Yükümlülükleri (Obligations of distributors, importers, users or any other third-party), Madde 29-Yüksek Risk Yapay Zekâ kullanıcılarının Yükümlülükleri (Obligations of users of high-risk AI systems) ↩︎
(n36) madde 48/4 ↩︎
(n36) madde 56 ↩︎
(n36) madde 61 ↩︎
(n36) madde 54 ↩︎
(n36) madde 55 ↩︎
Luca Bertuzzi, Leading EU lawmakers propose obligations for General Purpose AI, (https://www.euractiv.com/section/artificial-intelligence/news/leading-eu-lawmakers-propose-obligations-for-general-purpose-ai/?utm_source=substack&utm_medium=email) E.T.17.07.2023 ↩︎
(n36) ↩︎
Gian Volpicelli, ‘ChatGPT broke the EU plan to regulate AI’, (https://www.politico.eu/article/eu-plan-regulate-chatgpt-openai-artificial-intelligence-act/) E.T. 17.07.2023 ↩︎
The White House Washington, ‘Blueprint for an AI Bill Of Rights Making Automated Systems Work For The American People’(October 2022) (https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf) (Yapay Zekâ Haklar Bildirgesi) ↩︎
(n51), Yasal Uyarı (Legal Disclaimer) ↩︎
(n51), Giriş (Forward) ↩︎
(n51) 15 ↩︎
(n51) 23 ↩︎
(n51) 30 ↩︎
(n51) 40 ↩︎
(n51) 46 ↩︎
(n51) 22 ↩︎
ibid ↩︎
UNESCO, ‘Recommendation on the Ethics of Artificial Intelligence’, (November 2021) (https://unesdoc.unesco.org/ark:/48223/pf0000381137); The OECD Artificial Intelligence Principles, (https://oecd.ai/en/ai-principles) ↩︎
Microsoft, Responsible AI Standard, v2 General Requirements (For external release, June 2022) (https://blogs.microsoft.com/wp-content/uploads/prod/sites/5/2022/06/Microsoft-Responsible-AI-Standard-v2-General-Requirements-3.pdf), Google, Responsible AI, (https://cloud.google.com/responsible-ai) ↩︎
Türkiye Cumhuriyeti Cumhurbaşkanlığı Dijital Dönüşüm Ofisi,(https://cbddo.gov.tr/SharedFolderServer/Genel/File/TR-UlusalYZStratejisi2021-2025.pdf); Ulusal Yapay Zekâ Stratejisi, <https://cbddo.gov.tr/uyzs) “Ulusal Yapay Zekâ Stratejisi 2021-2025"’ 2021/18 sayılı Cumhurbaşkanlığı Genelgesi 20/08/2021 tarihli ve 31574 sayılı Resmi Gazete’de yayımlanarak yürürlüğe girmiştir. ↩︎
Tanımlama, dil. (“data poisoning”, “deep fakes", “reverse engineering”, “false training”, “data injected with malicious intent”) ↩︎
CEPEJ & the Court Administration of the Republic of Latvia, Artificial intelligence at the service of the judiciary, <https://www.youtube.com/watch?v=Duiu5UXPRfQ&t=5s, 27.9.2018> ↩︎
Kaynakça
Center for AI Safety, ‘Statement on AI Risk’, https://www.safe.ai/statement-on-ai-risk (E.T 17.07.2023)
CEPEJ & the Court Administration of the Republic of Latvia, Artificial intelligence at the service of the judiciary, (https://www.youtube.com/watch?v=Duiu5UXPRfQ&t=5s, 27.9.2018)
Council of Europe, Revised Zero Draft [Framework] Convention On Artificial Intelligence, Human Rights, Democracy and the Rule of Law, (Strasbourg, 6.1.2023) (CAI 2023/1) https://rm.coe.int/cai-2023-01-revised-zero-draft-framework-convention-public/1680aa193f)
European Commission For The Efficiency Of Justice (CEPEJ), European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their Environment, (Adopted at the 31st plenary meeting) (Strasbourg, 3-4.12.2018) https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c
European Commission for the Efficiency of Justice (CEPEJ), Abridged Report, 37th plenary meeting, (Strasbourg, 8-9. 12. 2021) (2021/17) https://rm.coe.int/cepej-2021-17-en-37-cepej-plenary-meeting-report-dec-2021/1680a4cf83
European Commission For The Efficiency Of Justice (CEPEJ), Revised Roadmap For Ensuring an Appropriate Follow-Up of the CEPEJ Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and Their Environment, (Document adopted at the 37th plenary meeting of the CEPEJ) (Strasbourg and online, 8-9.12.2021) (CEPEJ 2021/16) https://rm.coe.int/cepej-2021-16-en-revised-roadmap-follow-up-charter/1680a4cf2f
European Comission, Proposal for a Directive Of The European Parliament And Of The Council on Adapting non-contractual Civil Liability Rules to Artificial Intelligence (AI Liability Directive), (Brussels, 28.9.2022) COM (2022) 496 final 2022/0303 (COD) {SEC(2022) 344 final} - {SWD(2022) 318 final} - {SWD(2022) 319 final} -{SWD(2022) 320 final} https://commission.europa.eu/system/files/2022-09/1_1_197605_prop_dir_ai_en.pdf
European Commission, White Paper On Artificial Intelligence - A European Approach to Excellence and Trust, (Brussels, 19.2.2020) COM (2020) 65 final, https://commission.europa.eu/system/files/2020-02/commission-white-paper-artificial-intelligence-feb2020_en.pdf
European Commission, Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts, (Brussels, 21.4.2021) COM (2021) 206 final 2021/0106 (COD), {SEC(2021) 167 final} - {SWD(2021) 84 final} - {SWD(2021) 85 final} https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF
Eurpean Comission, ‘EU-US Trade and Technology Council’, https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/stronger-europe-world/eu-us-trade-and-technology-council_en (E.T 17.07.2023)
Future of Life Experiment, Pause Giant AI Experiments: An Open Letter, (https://futureoflife.org/open-letter/pause-giant-ai-experiments/)
https://www.coe.int/en/web/cepej/home
https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52020IP0276
Google, Responsible AI, (https://cloud.google.com/responsible-ai)
Gian Volpicelli, ChatGPT broke the EU plan to regulate AI, (https://www.politico.eu/article/eu-plan-regulate-chatgpt-openai-artificial-intelligence-act /, 3.3.2023)
Jeremy Kahn, Elon Musk and Apple cofounder Steve Wozniak among over 1,100 who sign open letter calling for 6-month ban on creating powerful A.I. (https://fortune.com/2023/03/29/elon-musk-apple-steve-wozniak-over-1100-sign-open-letter-6-month-ban-creating-powerful-ai/, 29.3.2023)
Karen Sloan, ‘Bar exam score shows AI can keep up with 'human lawyers,' researchers say’, (The Reuters, 15.3.2023) https://www.reuters.com/technology/bar-exam-score-shows-ai-can-keep-up-with-human-lawyers-researchers-say-2023-03-15
Luke Taylor, Colombian Judge says he used ChatGPT in Ruling, (The Guardian, 3.2.2023) https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling
Luca Bertuzzi, Leading EU lawmakers propose obligations for General Purpose AI, (https://www.euractiv.com/section/artificial-intelligence/news/leading-eu-lawmakers-propose-obligations-for-general-purpose-ai/?utm_source=substack&utm_medium=email, 14.3.2023)
Lauren Haughey, ‘World's first robot LAWYER is being sued by a law firm - because it 'does not have a law degree' (Mail Online, 14.3.2023) https://www.dailymail.co.uk/sciencetech/article-11857529/Worlds-robot-LAWYER-sued-law-firm-does-not-law-degree.html
Microsoft, Responsible AI Standard, v2 General Requirements (For external release, June 2022) https://blogs.microsoft.com/wp-content/uploads/prod/sites/5/2022/06/Microsoft-Responsible-AI-Standard-v2-General-Requirements-3.pdf
The White House Washington, Blueprint for an AI Bill of Rights Making Automated Systems Work for the American People, (October 2022) https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf
The OECD Artificial Intelligence Principles, (https://oecd.ai/en/ai-principles)
Türkiye Cumhuriyeti Cumhurbaşkanlığı Dijital Dönüşüm Ofisi resmi sayfası, (https://cbddo.gov.tr/SharedFolderServer/Genel/File/TR-UlusalYZStratejisi2021-2025.pdf)
UNESCO, Recommendation on the Ethics of Artificial Intelligence, (November 2021) (https://unesdoc.unesco.org/ark:/48223/pf0000381137)
https://www.abc.net.au/news/2023-06-01/eu-and-us-move-to-draft-ai-code-of-conduct/102421834