Silikon Vadisi Tahkim ve Arabuluculuk Merkezi’nin Tahkimde Yapay Zekânın Kullanımına İlişkin Rehber Taslağı
Teknoloji ile ilişkili sektörlerdeki hukuki uyuşmazlıkları çözmek amacıyla 2014 yılında ABD’de kurulmuş olan Silikon Vadisi Tahkim ve Arabuluculuk Merkezi (SVAMC), Ağustos 2023’ün son gününde yapay zekânın tahkimde kullanımına dair bir rehber taslağı yayımladı.[1] Yapay zekânın hayatın her alanında olduğu gibi hukuk alanına da hızla sirayet etmeye başladığı bir dönemde her yıl milyarlarca dolarlık uyuşmazlıkların çözüme bağlandığı tahkim yargılamalarında yapay zekânın kullanımının tartışılması ve çeşitli ulusal veya uluslararası düzenlemelere konu olması kaçınılmaz bir gereksinim. Zira yapay zekâ araçlarının tahkim süreçlerinde kullanımı uyuşmazlıkların daha hızlı, daha öngörülebilir şekilde ve daha masrafsız çözümünü sağlayacağı gibi birçok riski de beraberinde getiriyor. SVAMC’ın rehber taslağı bu bakımdan önemli bir öncü adım oldu.[2] Kamuya açıklanmasının ardından Şubat 2024’e kadar yorumlara açık hâlde kalacak ve sonrasında nihai hâlini alacak bu rehber, herhangi bir tahkim merkezinin tahkim süreçlerinde yapay zekânın kullanımına özel kurallar yayımlamasının ilk örneğini teşkil ediyor. Daha önce doktrinde bu konuda yapılan kapsamlı tartışmalar ve öne sürülen yorumların[3] bir kısmı da böylece ilk kez bir tahkim merciinin kurallarınca uygulamaya yansımış olacak.
Genel Bakış
SVAMC’ın rehberi şu anki hâliyle sadece 7 maddelik kısa bir metin olsa da yapay zekânın tahkim alanındaki potansiyel kullanımlarını yetkin bir şekilde tespit etmesi ve tahkim yargılamalarının tüm taraflarını hesaba katması itibariyle kayda değer düzenlemeler getiriyor. Söz konusu rehber, SVAMC’ın önüne gelebilecek hem ulusal hem uluslararası tahkim davaları için kullanıma hazır kılınırken başkaca tahkim merkezleri veya ad hoc tahkimler için de bir referans noktası olması niyetiyle hazırlanmış.
Rehber, tahkimin tarafları esasına göre ayrılan üç ana bölümden oluşuyor. İlk bölüm tüm tarafları kapsayan kurallara ayrılırken ikinci bölüm sadece dava taraflarını ve dolayısıyla vekillerini, son bölüm ise hakemleri ilgilendiriyor. Rehberin sonunda ise ilgi çekici bir yöntemle her bir kuralın doğru ve ihlâle yol açan ayrı ayrı uygulamaları örnek verilerek kuralların uygulaması somutlaştırılmaya çalışılmış.
Üç ana bölümün öncesinde ise giriş hükümleri kısmı var. Bu kısımda daha ziyade yapay zekâ kavramının nasıl anlaşıldığı izah edilmeye çalışılmış. Zira yapay zekâ terimi kavramının tek bir tanımı yok. Teknoloji geliştikçe yapay zekâ kavramının tanımının da geliştiği vakıa. Ancak rehbere yazılan şerhte belirtildiği üzere benimsenen tanım, “doğal bir dili anlamak, karmaşık semantik kalıpları tanımak ve insan ürünü çıktılar üretmek gibi çoğunlukla insan bilişselliği ile ilişkili işleri yapan bilgisayar sistemleri” olmuş.[4] Bu tanımın hem mevcut hem gelecekteki yapay zekâ çeşitlerini kapsayabilecek geniş kapsamlı bir tanım olduğu düşünülmüş ancak bilgisayar yardımıyla otomatik hâle getirilen her teknolojiyi de kapsamadığı önemle not düşülmüş.
Giriş kısmında izah edilen bir diğer olgu ise makine öğrenmesi olarak adlandırılan algoritmalara bağlı teknolojilerin on yıllardır var olduğu ve imlâ kontrolü, eposta filtrelemesi, metin tanıma (OCR) gibi algoritmalara dayalı basit teknolojilerin uyuşmazlık çözüm uzmanlarınca zaten kullanıldığı ancak yapay zekânın gelinen noktadaki potansiyel kullanımının bu tip artık basit kalan teknolojilerin çok ötesine geçtiği gerçeği. Dolayısıyla yeni yapay zekâ teknolojilerinin yarattığı risklerin çok daha büyük hâle geldiğinin altı çiziliyor. Örneğin, yapay zekânın artık makine öğrenmesi süreciyle ona verileri yükleyenlerin bile tahminini aşacak seviyede, neredeyse tamamen insan elinden çıkmışçasına yaratıcı ürünler ortaya koyması mümkün. Üretici yapay zekâ (generative AI) teknolojisi olarak sınıflandırılabilecek bu tip araçlar ile son derece karmaşık metinler okunup bunlar arasında ilişki kurulması suretiyle insanın düşünsel süreçleriyle ortaya çıkabilecek neticelere varılması veya son derece inandırıcı delil niteliğinde materyaller üretilmesi işten bile değil.
7 Kural
Birinci kural, katılımcıların bir davaya hazırlık veya duruşmalar sırasında kullanacakları yapay zekâ araçlarının işlevselliğini, kısıtlarını ve risklerini anlamak için tüm makul çabayı göstermeleri yükümlülüğünü ortaya koyuyor. Karmaşık yapay zekâ sistemlerinin tam olarak kavranması teknik olarak bu alanda çalışmayan kişilerden beklenemeyeceği gerçeği karşısında rehber tamamıyla bir anlama yükümlülüğü getirmiyor. Özellikle üretici yapay zekâ teknolojileri ile ortaya konan çıktıların sonsuz karmaşık ve ihtimallere dayalı hesaplamalara dayanabildiği göz önüne alındığında kimi zaman yapay zekâ araçlarının bile ürettikleri çıktıları açıklayacak algoritmaları belirgin olarak ortaya koyması mümkün olmayabilir. Bu sebeple tahkim katılımcılarına düşebilecek azami yükümlülük, sadece algoritmaları belirgin bir şekilde açıklanabilecek yapay zekâ araçları kullanmaları olacaktır. Böyle bir özen yükümlülüğünün gösterilmemesi durumunda ise günün sonunda beslendiği verilere ve bunu işleme protokollerine bağlı olarak birtakım eğilimler ve kör noktalar içerebilecek olan yapay zekâ araçları yanlış yönlendirme yapabilir, hatta ayrımcılığa yol açabilir. Bu tür risklerin yapay zekâ araçlarının kontrollü ve bilinçli kullanımıyla asgariye indirilmesi hedeflenmiş.
Kural 2, tüm katılımcıların yapay zekâ araçlarını kullanırken gizli bilgilerin güvenliğini sağladıklarına emin olmaları yükümlülüğünü getiriyor. Bu zaten tüm tahkim davalarında genel bir yükümlülük iken söz konusu yükümlülüğün yapay zekâ araçlarının kullanımı sebebiyle tehlikeye girmesine karşı bilhassa özenli olunması gerektiği vurgulanmış denebilir.
Kural 3, kullanılan yapay zekâ araçlarının açıklanması yükümlülüğüne ilişkin. Ancak bu doğrultuda genel bir yükümlülük getirmekten kaçınılırken iki temel senaryoyu esas alan son derece detaylı ve sofistike hükümler geliştirilmiş. Bu iki senaryo şekillendirilirken açıklanması gereken ve gerekmeyen yapay zekâ araçları veya kullanım tarzları olabileceği göz önünde bulundurulmuş. O yüzden her bir davanın kendi koşulları çerçevesinde vaka karar verilmesi gerektiği söylenip farklı ihtimaller için bir seçenekler çerçevesi çizilmiş. Ayrıca bu iki seçeneği de kabul etmeksizin tarafların tamamen kendi tercih edecekleri şekilde açıklama yükümlülüğünü şekillendirebilmeleri de üçüncü bir seçenek olarak mümkün bırakılmış. Rehberin bu kural altında hiç değinmediği bir husus ise taraflar ile taraf vekilleri arasındaki açıklama yükümlülüğü. Bu konuya girilmiyor.
Kural 4, aynı zamanda ikinci bölümün ilk kuralı. Burada üzerinde durulan husus, yapay zekâ araçları kullanan tarafların bu araçların çıktılarını mutlaka gözden geçirmeleri gerekliliği. Bir başka deyişle çıktıların hem olgusal hem hukuki yönden isabetli olduğunun kontrol edilmesi yükümlülüğü. Aksi takdirde yapay zekâ araçlarının çıktısı olan ve düzeltilmemiş bir yanlışlıktan ilgili tarafın sorumlu olacağı belirtilmiş. Öte yandan, bu kuralda ortaya konan yükümlülüğün tamamen taraflara yüklendiği ancak herhangi bir bağımsız üçüncü taraf kontrolünün zorunlu kılınmadığı özellikle vurgulanıyor.
Kural 5 ise hatalı kullanımdan ziyade tarafların, tahkim sürecinin doğruluğunu veya duruşmaların yürütülmesini sekteye uğratacak yapay zekâ araçlarını kasıtlı olarak kullanmayı yasaklamaya ilişkin. “Deep fake” gibi yöntemlerle sahte delil üretimi tarzı “gerilla taktiklerinin” yapay zekâ yardımıyla daha kolay kullanılır hâle geldiği vakıayken bu kural büyük önem arz ediyor. Bu tip bir kötüye kullanım olduğunda bunun tespitinin de teknoloji geliştikçe daha zor hâle geleceği açık, yani son derece masraflı olabilecek teknik yardımlarla bunun tespiti söz konusu olabilir. Bu sebeple böyle bir teknik yardıma başvurmak sebebiyle üstlenilecek masrafların yanlış yönlendirme yapan tarafa yükleneceği bir yaptırım olarak düzenlenebilir.
Son iki kural ise hakemlere ilişkin. Kural 6, hakemlerin kendi değerlendirme ve karar alma görevlerini bir yapay zekâ aracına devredemeyeceğine ilişkin genel bir kural. Yapay zekânın mahkemelerde hâkim olup olamayacağının tartışıldığı ve hatta bu konuda çeşitli pilot uygulamaların[5] yapıldığı günümüzde SVAMC kendisi açısından bu tartışmaya noktayı koymuş oluyor. Ancak değerlendirme ve karar alma görevlerinin devredilemezliğinin hakemlerin hiçbir yapay zekâ aracının yardımını almayacağı anlamına gelmeyeceği de “bu ilke özel olarak hakemin karar alma işlevine uygulanır” ifadesiyle belirtilmiş. Bu kuralda ortaya konan temel husus, yapay zekâdan hiçbir yardım alınmaması değil ancak insan değerlendirmesi, sorumluluğu ve hesap verebilirliğinin bu araçlara bırakılmaması. Dolayısıyla herhangi bir yapay zekâ aracından yardım alan hakemlerin aynı taraflara ilişkin Kural 4’te ortaya konduğu gibi bu araçların çıktılarını incelemesi ve kontrol etmesi zaruri hâle geliyor.
Son kural ise kayıtlarda olmayan bir yapay zekâ aracının sonucundan yardım alan hakemlerin bunu taraflara usulünce açıklaması gerekliliğini ortaya koyuyor. Burada usulünce ibaresinden kastın sadece haber verme ile yetinilmeyip tarafların kullanılacak yapay zekâ aracına dair yorumlarının alınması anlamına geldiği söylenebilir. Böylece tarafların söz konusu araca bir itirazı olması durumunda o aracın hakemler tarafından kullanılamaması sonucu doğabilir Burada kafa karıştırıcı olan nokta ise söz konusu yükümlülüğün “uygulanabilir olduğu ölçüde” ibaresine bağlanmış olması. Dava sürecini kötü niyetli olarak uzatabilecek bir tarafın kullanımı son derece isabetli bir yapay zekâ aracına kasıtlı olarak itiraz etmesi gibi durumlarda itirazın reddedilebilmesi için bu ibare konmuş olabilir. Genel olarak bu kural şüphesiz ki yargılamanın şeffaflığı ve tarafların dinlenilme hakkı açısından kritik öneme sahip. O yüzden de tarafların açıklama yükümlülüğü kadar esnek bırakılmamış.
Değerlendirme
Rehberin yapay zekâ tanımı gayet yerinde ve kapsayıcı. Rehberde hakemlerin ve tarafların sorumluklarının ayrıştırılması kesinlikle doğru bir yöntem olmuş. Tarafların açıklama yükümlülüğüne ilişkin kuralın yapay zekâ araçlarının çok çeşitli kullanımları öngörülerek gerekli esnekliği gösteren ve sofistike bir şekilde hazırlanması isabetli. Hakemlerin karar alma işlevlerini yapay zekâya bırakamayacağı tercihinin net olarak yapılmış olması da belki uzun vadede tartışmalı olsa bile günümüz için isabetsiz sonuçların önüne geçmek açısından son derece yerinde. Ancak 5 veya daha çok hakemli yargılamalarda en azından iki hakemin yapay zekâ olmasına açık kapı bırakılabilirdi. Böylece yapay zekânın dolduracağı hakem koltukları çoğunluğu oluşturmaksızın birçok pilot uygulama da mümkün olabilirdi. En sondaki örneklerin verilmesi zaruri değildi ama hazır verilmişken daha detaylı uygulama örnekleri verilebilirdi, mevcut örnekler fazla yüzeysel kalmış. Ayrıca rehberi doktrinde kimi zaman tartışılan yapay zekâ araçlarına erişimde eşitsizlik sorununa hiç değinmiyor. Bunun bir eksiklik olup olmadığı tartışılır ancak Şubat 2024’e kadar yapılacak yorumlarda kendi içerisinde çeşitli ikilemler taşıyan bu meseleye de yer verilmesi düşünülebilir.
Günün sonunda, SVAMC’ın rehberi kısa ama özlü ve hepsinden önemlisi, gerçekten öncü bir adım olmuş. Dünyanın çeşitli yerlerindeki tahkim merkezlerinin takip edeceği bir eğilimi başlatacağı öngörülebilir. Zaten rehberin giriş kısmında da “uluslararası tahkimde yapay zekânın kullanımına dair en iyi uygulamaların gelişimi henüz başlangıç aşamasında ve işbu rehber bu çabaya katkıda bulunmayı hedefliyor” diyerek bu noktanın altı çizilmiş.
Dipnotlar
https://thearbitration.org/wp-content/uploads/2023/08/SVAMC-AI-Guidelines-CONSULTATION-DRAFT-31-August-2023-1.pdf ↩︎
https://svamc.org/extension-of-commentary-period-for-the-svamcs-guidelines-on-the-us-of-ai-in-arbitration/ ↩︎
Örnek olarak bkz. Paul Cohen, Sophie Nappert, “The March of the Robots”, Global Arbitration Review, Şubat 2017; Jose Maria de la Jara, Alejandra Infantes, Daniela Palma, “Are We Ready?, Kluwer Arbitration Blog, 2017; Kathleen Paisley, Edna Sussman, “Artificial Intelligence Challenges and Opportunities for International Arbitration”, NYSBA, İlkbahar 2018, Vol. 11/1; Mahnoor Waqar, “The Use of AI in Arbitration Proceedings”, Ohio State Journal of Dispute Resolution, 2022, Vol. 37/3. ↩︎
https://www.iareporter.com/wp-content/uploads/2023/08/SVAMC-AI-Guidelines.pdf, s. 3. ↩︎
Guangzhou Tahkim Komisyonu, yapay zekânın hakem olarak kullanıldığı ilk örnek olarak biliniyor. Estonya’da küçük ölçekli uyuşmazlıklar için hükümetin de teşvik ettiği bir yapay zekâ ile çözüm mekanizması mevcut. ↩︎