Brüksel
Avrupa Birliği (AB), son dönemde kullanım alanı hızla yaygınlaşan sohbet robotu ChatGPT gibi çeşitli yapay zeka teknolojilerine katı kurallar getirecek yasanın kapsamını belirlemeye çalışıyor.
Yapay zekanın günümüzde üretim, sağlık, finans, eğitim, ulaşım ve güvenlik gibi farklı alanda yaygın biçimde kullanıma girmesiyle bu teknolojiye yönelik kuralların açık biçimde belirlenmesi ciddi önem taşıyor.
AB'nin henüz ChatGPT veya benzeri yapay zeka sistemleriyle ilgili bir düzenlemesi bulunmuyor ancak AB Komisyonu 2 yıl önce yapay zeka konusunda yeni kurallar çerçevesini içeren ilk yasal düzenleme teklifini hazırlayıp üye ülkeler ve Avrupa Parlamentosu'na (AP) sunmuştu.
Bu teklif, yapay zeka sistemlerinin kullanımında birtakım sınırlama ve şeffaflık kuralları getiriyordu. Bu önerinin yasalaşması halinde, ChatGPT gibi yapay zeka sistemlerinin de bu kurallara uygun olarak kullanılması gerekecek.
Bütün üye ülkelerde aynı şekilde uygulanması beklenen yapay zekaya yönelik yeni kurallar risk temelli bir yaklaşım getiriyor.
Komisyonun yasa teklifinde, yapay zeka sistemleri kabul edilemez risk, yüksek risk, sınırlı risk ve minimum risk olmak üzere 4 ana gruba ayrılıyor.
İnsanların can güvenliğine, geçim kaynaklarına ve haklarına ilişkin açık tehdit olduğu düşünülen yapay zeka sistemleri kabul edilemez risk grubunda yer alıyor. Bu alanlardaki sistemlerin kullanımının yasaklanması bekleniyor.
Bireylerin özgür iradesine karşı olan, insan davranışını manipüle eden veya sosyal puanlama gerçekleştiren yapay zeka sistemleri veya uygulamaları da yasak kapsamında.
Kritik altyapı, eğitim, ameliyat, işe alım sürecinde CV değerlendirme, kredi derecelendirme, deliller, göç, iltica ve sınır yönetimi, seyahat belgelerinin doğrulanması, biyometrik kimlik belirleme sistemleri, yargı ve demokratik süreçler ise yüksek risk grubuna giriyor.
Yüksek risk grubuna dahil alanlara katı koşullar getirilirken, bu gruptaki yapay zeka sistemlerinin piyasaya sunulmadan önce uyması gereken sıkı yükümlülükler getiriliyor. Bu sistemlerin ayrımcılık yapmaması, sonuçların gözlemlenebilir olması ve yeterli ölçüde insan gözetimine tabi tutulması gerekiyor.
Kurallar kapsamında emniyet birimleri terör ve ciddi suçlar gibi özel durumlarda halka açık alanlarda biyometrik kimlik saptama sistemlerini özel durumlarda kullanabilecek. Ancak, yapay zeka sistemlerinin bu tür kullanımları sınırlı tutulacak ve adli kuruluşun izine tabi olacak.
Sınırlı risk grubunda yer alan yapay zeka sistemleri de belirli şeffaflık yükümlülüğüne uymak zorunda olacak.
Sohbet robotları da söz konusu teklifte sınırlı risk grubunda yer alıyor. Burada, kullanıcıların sohbet robotlarıyla görüşme yaparken bir bilgisayarla etkileşimde olduklarının farkında olmasının sağlanması hedefleniyor.
Yapay zeka destekli video oyunları veya istenmeyen e-posta filtreleri gibi uygulamalar ise minimum risk grubunda. Bireylerin hakları veya güvenliği için az veya hiç risk içermeyen bu gruptaki yapay zeka sistemlerine bir müdahalede bulunulmayacak.
Yüksek para cezaları söz konusu olacak
Söz konusu teklif, yapay zeka yasasını ihlal edenlere 30 milyon avro veya küresel karlarının yüzde 6'sına ulaşacak seviyede para cezası verilmesini de içeriyor.
Yürürlüğe girmesi için AP ve üye ülkelerin onayı gereken yapay zeka yasası üzerinde çalışmalar ise halen devam ediyor. Bu alanda AB üyesi ülkeler geçen yıl sonunda ortak tutum belirledi.
AB ülkeleri, yasaklanmış yapay zeka uygulamalarıyla ilgili bazı değişiklikler istedi ve yapay zekayı sosyal puanlama için kullanma yasağını özel sektörü de kapsayacak şekilde genişletti.
Belirli bir grubun güvenlik açıklarından yararlanan yapay zeka sistemlerinin kullanımını yasaklayan hükmün kapsamı genişletildi.
Kolluk kuvvetleri tarafından halka açık alanlarda gerçek zamanlı uzaktan biyometrik tanımlama sistemlerinin kullanımına ise istisnai olarak izin verildi. AB ülkeleri, ulusal güvenlik, savunma ve askeri amaçların ise yapay zeka yasası kapsamına dahil edilmemesinde uzlaştı.
Avrupa Parlamentosu ortak tutum belirleyecek
AP ise bu konuda henüz ortak bir tutum belirlemiş değil. Parlamento üyeleri yapay zeka yasası üzerinde halen çalışmaları sürdürüyor. Milletvekilleri, burada özellikle Chat GPT gibi sistemlerin hangi risk grubuna gireceği konusunda ortak tutum belirlemek için görüşmeler yapıyor.
AP'nin bu alanda çalışan üyeleri, hali hazırda insan gözetimi olmadan ve karmaşık metinler üreten yapay zeka sistemlerinin yüksek risk listesinin bir parçası olması gerektiği görüşünde.
Parlamento, yasa konusunda tutumunu belirlemesinin ardından üye ülkeler ile müzakere masasına oturacak.
Yapay zeka yasasına ilişkin müzakerelerin bu yıl başlaması bekleniyor.
AP ve üye ülkelerin ortak bir metin üzerinde uzlaşmasının ardından onaylanacak yasa ile sektöre uyum için 2 yıllık bir geçiş süreci tanınması bekleniyor.
Yapay zeka alanına yönelik yeni kuralları özellikle bu alana ciddi yatırımlar yapan Microsoft ve Google gibi büyük teknoloji şirketleri yakından takip ediyor.
AB ChatGPT'yi inceliyor
AB ülkelerinin ulusal veri koruma kurumlarını bir araya getiren Avrupa Veri Koruma Kurulu, son toplantısında OpenAI tarafından geliştirilen yapay zeka sohbet robotu ChatGPT'yi değerlendirdi.
Toplantıda, ChatGPT'ye yönelik yürütülen incelemelerde, iş birliğini ve bilgi paylaşımını artırmak için özel bir görev gücü kurulması karara bağlandı.
İtalyan Veri Koruma Ajansı, geçen ay ChatGPT yapay zeka sohbet robotuna kişisel verileri toplama kurallarını ihlal ettiği şüphesiyle soruşturma başlatmış ve uygulamaya erişimi durdurmuştu.
Almanya'daki yetkililer de, veri güvenliği endişeleri nedeniyle prensip olarak gerekirse yapay zekaya dayalı sohbet robotu ChatGPT'yi engelleyebileceklerini bildirmişti.
Aynı zamanda, Fransa ve İrlanda'daki verilerin korunmasından sorumlu yetkililer bulgularını tartışmak için İtalya Verileri Koruma Ajansı ile iletişime geçmişti.
Bu durumda AB'nin ChatGPT ile ilgili yaklaşımını yakın zamanda açıklığa kavuşturması ve benzer yapay zeka teknolojilerine katı kurallar getirmesi kaçınılmaz görünüyor.