Avrupa Birliği’nin İnsan Odaklı Regülatif Yaklaşımı ve İş Etiği Kapsamında YZ Yasası’nın Oluşum Süreci

Avrupa Birliği’nin İnsan Odaklı Regülatif Yaklaşımı ve İş Etiği Kapsamında YZ Yasası’nın Oluşum Süreci

Günümüzde yapay zekâ (“YZ”) teknolojilerinin hızla yaygınlaşması, beraberinde önemli etik tartışmaları da getirmektedir. Avrupa Birliği (“AB”), YZ’nin sunduğu fırsatları en üst düzeye çıkarırken olası riskleri en aza indirmeye yönelik insan odaklı bir regülatif çerçeve oluşturmayı hedeflemiş, bu yaklaşımı, YZ Yasası’nda (AI Act) somutlaştırmıştır.

Haziran 2024’te kabul edilen YZ Yasası, yalnızca bölgesel bir düzenleme olmanın ötesinde, küresel ölçekte standart belirleme potansiyeline sahip olmasıyla öne çıkmaktadır. AB’nin geniş pazarı ve kişisel verilerin korunması alanında yakaladığı momentum sayesinde oluşan Brüksel etkisi, diğer ülkeleri de YZ Yasası’nı iç hukuklarına aktarma konusunda değerlendirme yapmaya sevk ederken, AB dışında faaliyet gösteren şirketlerin de bu standartları dikkate alarak proaktif uyum adımları atmaları sonucunu doğurmaktadır. YZ Yasası, yalnızca AB’de faal taraflara değil, çok daha geniş kitlelerin iş yapış süreçlerine ve yasa koyucuların tutumlarına etki etmekte olup, oluşturulduğu temel prensiplerin ve geçtiği yasama süreci ile benimsenen regülasyon yapısının insan odaklı regülatif yaklaşım ve iş etiği kapsamında incelenmesi gerekmektedir.

Yasanın oluşturulma sürecinde, insan hakları, demokrasi ve hukukun üstünlüğü gibi AB’nin de temelini oluşturan etik ilkeler ön planda tutulmuştur. Nitekim, yasanın ilk gerekçesi de[1]AB’nin YZ stratejisinin temel felsefesini ortaya koymakta ve düzenlemenin insan odaklı, güvenilir bir YZ’yi teşvik etmeyi amaçladığını vurgulamaktadır.

YZ Yasası, Avrupa Komisyonu’nun (“Komisyon”) uzun soluklu çalışmalarına ve çok yönlü ve kapsamlı tartışmalarına dayanmaktadır. YZ Üst Düzey Uzman Grubu’nun (“Uzman Grubu”) yayımladığı Güvenilir Yapay Zekâ İçin Etik Rehber İlkeler[2] raporu ise yasanın temelini oluşturmuştur. Bu raporda insan gözetimi, teknik sağlamlık, şeffaflık, hesap verebilirlik ve adil olma gibi temel etik gereksinimler tanımlanmıştır. Yapay Zekâ Hakkında Soru-Cevaplar[3] belgesinde de belirtildiği gibi, bu anlayış ile oluşturulan YZ Yasası, sağlık, güvenlik ve temel haklara yönelik riskleri ele almayı amaçlamaktadır.

YZ sistemlerinin karmaşıklığı, bir hata veya istenmeyen durumla karşılaşılması durumunda sorumluluğun kimde olacağı sorusunu gündeme getirmektedir. Geliştirilmiş YZ sistemleri, özellikle üretken YZ, dezenformasyonun büyük ölçekli yayılması, fikri mülkiyet ve veri koruma sorunları gibi yeni etik hassasiyetleri beraberinde getirmektedir.[4] Bu zorluklar, YZ’nin kamuoyu güvenini zedeleme ve intihal olasılığını gündeme getirmektedir. Bu nedenle, YZ’nin sorumlu kullanımına yönelik yönergeler, YZ’nin toplumsal değerlerle uyumlu ve faydalı olmasını sağlamak için de hayati öneme sahiptir[5]. YZ Yasası, iş dünyasında da temel bir sorun teşkil eden bu belirsizliği ortadan kaldırmak adına sorumluluk ilkesini net bir şekilde tanımlamaktadır. Bu bağlamda, yasa koyucuların YZ Yasası’nı hazırlamasında yalnızca prensipli bir yaklaşım değil, YZ teknolojilerinin son yıllarda kişisel yaşamlarımızdan kamu hizmetlerine ve iş süreçlerimize hızla entegre olması ve neredeyse her kesimden insanın YZ ile doğrudan muhatap hale gelmesi de etkili olmuştur.

Bu gelişmeler ışığında YZ Yasası, her kuruluş için doğrudan bağlayıcı sonuçlar doğurmasa da dürüstlük, şeffaflık ve sorumluluk gibi temel prensipleri somutlaştırarak kurumsal stratejilere yön veren önemli bir referans noktası sunmaktadır. Yasanın hukuki altyapısının, Yapay Zekâ Hakkında Rapor[6] ile belirlenen risk temelli bir yaklaşıma dayanması da düzenlemeyi daha uygulanabilir kılmış, yasal çerçevenin hazırlanmasında Avrupa Parlamentosu’nun etik hakkında YZ sistemlerinin insan merkezli ve güvenilir olması gerektiğini vurgulayan 20 Ekim 2020 tarihli kararının[7] da etkili olması, YZ Yasası’na boyut kazandırmıştır.

Bu kapsamda YZ Yasası, soyut etik ilkeleri somutlaştırarak, her kuruluş için doğrudan bağlayıcı olmamakla birlikte, ilgili durumlarda uygulanabilecek sınırlar ve yol gösterici hükümler ortaya koymaktadır. YZ Yasası, bunu yaparken YZ sistemlerini potansiyel risk seviyelerine göre sınıflandırarak temel haklara ve etik ilkelere aykırı uygulamalara sınırlar getirmektedir. Ayrıca, şeffaflık ve açıklanabilirlik gereklilikleri getirerek YZ’nin kara kutu özelliğini azaltmakta ve yüksek riskli sistemler için veri yönetişimi, risk değerlendirmesi ve insan gözetimi gibi zorunluluklar getirerek insan odaklı ve etik uygulamaları pekiştirmektedir.

Risk Temelli Yaklaşım ile Etik Önceliklendirme

Etik riskleri yönetmek için YZ Yasası, risk temelli bir model benimsemektedir. Bu yaklaşım, bir sistemin yaratabileceği zarar olasılığına ve etkisine göre farklı yasal yükümlülükler öngörmektedir. Bu şekilde YZ Yasası, Güvenilir Yapay Zekâ İçin Etik Rehber İlkeler raporundaki soyut etik ilkeleri somut bir hukuki matrise dönüştürmektedir.

YZ Yasası, AB’nin temel hak ve değerlerine aykırı belirli YZ uygulamalarını kabul edilemez risk kategorisinde değerlendirerek kullanımlarını  tamamen yasaklamaktadır. Bu sistemler, insan onurunu, özerkliğini ve güvenliğini tehdit eden özellikleri ile göze çarpmaktadır. Yasaklanan uygulamalar arasında, bireyleri manipüle eden sistemler, sosyal puanlama ve kamuya açık alanlarda haksız gerçek zamanlı biyometrik tanımlama gibi uygulamalar yer almaktadır.

Yüksek riskli olarak sınıflandırılan YZ sistemleri, insan sağlığına, güvenliğine veya temel haklarına ciddi zarar verme potansiyeli taşımaktadır. YZ Yasası, bu sistemler için kapsamlı ve bağlayıcı yükümlülükler getirerek insan odaklı yaklaşımı sürdürmektedir. Bu kapsamda, kritik altyapı yönetimi, istihdam ve insan kaynakları yönetimi, finansal hizmetler ve kanun yaptırımı gibi bireylerin hayatlarına ve belirli hizmetlerden yararlanmalarına dokunan alanlarda kullanılan sistemler yüksek riskli kabul edilmektedir. Bu sistemlerin geliştirilmesinde teknik standartlar, uygunluk değerlendirmeleri ve teknik dokümantasyon zorunlu kılınmıştır.

Yüksek riskli sistemler dışında kalan YZ uygulamaları ise sınırlı ve minimal risk kategorilerine ayrılmaktadır. Sınırlı riskli sistemlerde, örneğin sohbet robotlarında, temel etik gereklilik şeffaflıktır. Kullanıcıların bir YZ sistemi ile etkileşimde bulunduklarını açıkça bilmeleri zorunlu kılınmaktadır.[8] Minimal riskli sistemler için bağlayıcı hukuki yükümlülükler öngörülmese de işletmeler gönüllü etik kurallar geliştirmeye teşvik edilmektedir.[9]

Makalenin Devamı İçin >>>


[1] Yapay Zekâ Yasası, Gerekçe 1
[2] Yapay Zekâ Üst Düzey Uzman Grubu, Güvenilir Yapay Zekâ İçin Etik Rehber İlkeler, 2019
[3] Avrupa Komisyonu, Yapay Zekâ Hakkında Soru-Cevaplar, 2024
[4] Al-kfairy vd., Üretken Yapay Zekânın Etik Zorlukları ve Çözümleri: Disiplinler arası Bir Bakış Açısı, 2024
[5] Avrupa Komisyonu, Araştırmada Üretken Yapay Zekânın Sorumlu Kullanımına İlişkin Dinamik Kılavuz, 2025
[6] Avrupa Komisyonu, Yapay Zekâ Hakkında Raporu, 2020
[7] Avrupa Parlamentosu, Yapay Zekâ, Robotik ve İlgili Teknolojilerin Etik Yönlerine İlişkin Komisyona Tavsiyeler İçeren Kararı, 2020
[8] Yapay Zekâ Yasası, Madde 50
[9] Avrupa Komisyonu, Yapay Zekâ Hakkında Soru-Cevaplar, 2024

 


Yazı: Nazlı Elif Yey, Miray Muratoğlu Ekici, Melis Mert – BTS Partners

2. 

Kaynak: INmagazine 39. Sayı

Diğer Sayıları İçin: INmagazine


Not:
Makalelerdeki Görüş ve Yorumlar Yazar veya Yazarlara Ait Olup, Etik ve İtibar Derneği’nin Konu ile İlgili Düşüncelerini Yansıtmamaktadır.