ÖZET

Geçtiğimiz birkaç yılda yapay zekâ alanında devrim niteliğinde gelişmeler meydana gelmiştir. Yapay zekâ uygulamaları hayatın neredeyse her alanında çözümler üretebilmekte ve geniş kitlelere sunduğu eşi görülmemiş imkânlar nedeniyle ilgi odağı hâline gelmiştir. Yapay zekanın ekonomik, sosyal ve pratik hayata ilişkin önemli yararlarına karşın özellikle temel haklara yönelik ciddi riskler oluşturması hukuki düzenlemelerin konusu olma sürecini de hızlandırmıştır. Bu alandaki ilk kapsamlı düzenlemelerden biri olan AI Act'in 2024 yılı başlarında yürürlüğe girmesi beklenmektedir. AI Act Avrupa Birliği'ne ait bir düzenleme olmakla birlikte sınır ötesi uygulanabilirliği ve yüksek idari para cezası tutarları sebebiyle dünya çapında da etki uyandırmıştır. Bu çalışmada AI Act kapsamında yürürlüğe girmesi beklenen düzenlemeler incelenmiştir.

Anahtar Kelimeler: Yapay Zekâ, AI Act, Veri Yönetişimi, Kişisel Verilerin Korunması.

GİRİŞ

Avrupa Parlamentosu, 14 Mayıs 2023 tarihinde yapay zekâ sistemlerinin düzenlenmesine ilişkin tüzük teklifini (Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)1 (“AI Act”) kabul ederek Avrupa Birliği Konseyi'nde gerçekleşecek incelemeler öncesinde düzenlemeyi son biçimine kavuşturmuştur. AI Act, Avrupa Komisyonu'nun Avrupa Birliği (“AB”) Yapay Zekâ Stratejisi'ni yayımladığı 2018 yılından bu yana yapay zeka sistemlerinin AB çapında tüzük seviyesinde düzenlenmesine yönelik çalışmaların son adımı olarak ortaya çıkmıştır. AI Act ayrıca, Çin'in üretici (ing. generative) yapay zekâ sistemlerine ilişkin olarak yayımladığı taslak düzenlemeyle2 birlikte konuya ilişkin ilk (taslak) yasal düzenlemelerden biri olarak bilinmektedir3 . AI Act'e ilişkin müzakerelerin 2023 yılında tamamlanarak düzenlemenin 2024 yılı başlarında yürürlüğe girmesi beklenmektedir4.

Yapay zekâ, genellikle bir dizi algoritma, bilgisayar veya robot tarafından çalıştırılan ve insanlar tarafından belirlenen hedefler doğrultusunda gerçek zamanlı verileri kullanarak içerik, tahmin ve öneri geliştirebilen ve karar alabilen bir teknolojidir5 . AI Act'in 3'üncü maddesi kapsamında yapay zekâ sistemleri, Ek-I'de listelenen teknik ve yöntemlerden bir veya daha fazlası kullanılarak geliştirilen ve insanlar tarafından belirlenen amaçlar doğrultusunda etkileşimde bulundukları ortamlara tesir eden içerik, tahmin, öneri veya karar gibi çıktılar üretebilen yazılım olarak tanımlanmaktadır.

Yapay zekâ sistemleri sayesinde daha başarılı tahminler yapılabilmekte, ticari operasyonlar ve kaynak tahsisi optimize edilebilmekte ve hizmetlerin kişiselleştirilme düzeyi artırılabilmektedir. Dolayısıyla, yapay zekanın şirketlerin iş faaliyetlerinde verimlilik artışına yol açacağı ve rekabet avantajı sağlayacağı öngörülmektedir6 . Bununla birlikte, aynı teknolojinin bireyler ve toplum için ayrımcılık ile fiziksel ve psikolojik zararlara yol açma gibi olumsuz sonuçlara neden olması da mümkün görülmektedir. AI Act, risk odaklı bir yaklaşımla bireylerin temel haklarının, sağlıklarının ve güvenliklerinin korunmasını esas kabul eden, yapay zekanın insan yararının sağlanması ve toplumun yaşam standartlarının iyileştirilmesi nihai amaçları doğrultusunda kullanılması gerektiğine dayanan bir bakış açısıyla hazırlanmıştır7.

1. AI ACT'İN KAPSAMI

AI Act'in ilk maddesinde özetlendiği üzere, AI Act kapsamında (i) AB içerisinde yapay zeka sistemlerinin piyasaya sürülmesi, hizmete sunulması ve kullanımına ilişkin uyumlulaştırılmış kurallara yer verilmekte, (ii) belirli yapay zeka uygulamaları yasaklanmakta, (iii) yüksek riskli yapay zeka sistemlerine yönelik özel gereklilikler ve bu sistemlerin işletmecilerine yönelik yükümlülükler düzenlenmekte, (iv) gerçek kişilerle etkileşim içerisinde çalışan yapay zeka sistemleri, duygu tanımlama sistemleri, biyometrik kategorizasyon sistemleri ile görüntü, ses veya video içeriği oluşturmak veya manipüle etmek için kullanılan yapay zeka sistemlerine birtakım uyumlulaştırılmış şeffaflık yükümlülükleri getirilmekte ve (v) piyasanın takibi ve gözetimine ilişkin kurallara yer verilmektedir.

AI Act'in dünya çapında büyük yankı uyandırmasına ve geniş bir kitlenin gündemine girmesine neden olan bir başka husus da düzenlemenin bölgesel kapsamıdır. Buna göre AI Act, yasalaşması durumunda, (i) AB içerisinde yerleşik olup olmamalarına bakılmaksızın AB'de piyasaya sürülen veya hizmete sunulan yapay zekâ sistemlerinin sağlayıcılarına, (ii) AB'de bulunan yapay zeka sistemlerinin kullanıcılarına ve (iii) AB dışında bulunan yapay zeka sistemleri tarafından üretilen çıktıların AB içinde kullanılması hâlinde, söz konusu sistemlerin sağlayıcılarına ve kullanıcılarına uygulanacaktır. Bu açıdan AI Act'in, yer bakımından uygulamasının oldukça geniş olması nedeniyle gündem olan ve esasen bu özelliğiyle AB sınırlarının dışında oldukça fazla aktörü de etkileyen 2016 tarihli AB Genel Veri Koruma Tüzüğü ile benzer bir yapıda olduğundan bahsedilebilecektir.

2. YASAKLANAN YAPAY ZEKA UYGULAMALARI

AI Act, risk odaklı bir yaklaşımla, yapay zekâ uygulamalarını (i) kabul edilemez düzeyde riskli, (ii) yüksek riskli ve (iii) düşük veya asgari riskli olarak sınıflandırmıştır8 . Bu kapsamda kabul edilemez düzeyde riskli bulunan yapay zekâ uygulamaları temel hakların ihlâli, AB değerlerine aykırılık, bireylerin zayıf yönlerinin suistimal edilerek psikolojik veya fiziksel zarara uğratılma olanağının mevcut olması gibi sebeplerle bütünüyle yasaklanmıştır.

AI Act'in 5'inci maddesinin birinci fıkrasının (a), (b) ve (c) bentleri kapsamında piyasaya sürülmesi, hizmete sunulması veya kullanılması yasaklanmış olan yapay zeka uygulamaları şu şekilde belirlenmiştir: (i) bir kişinin davranışlarını, o kişiye veya başka bir kişiye fiziksel veya psikolojik zarar verecek şekilde saptırmak amacıyla bilinçaltı teknikleri kullanan yapay zeka sistemleri, (ii) belirli toplum kesimlerinin yaş, fiziksel veya zihinsel engellilik hâlinden kaynaklanan zafiyetlerini suistimal ederek bu kişilerin davranışlarını etkileyen ve onlara fiziksel veya psikolojik zarar verebilecek olan yapay zeka sistemleri ile (iii) kamu otoriteleri veya bunlar adına uygulamaya alınan ve gerçek kişilerin toplumsal davranışlarını ve kişilik özelliklerini esas alarak sosyal puanlama değerlendirmeleri gerçekleştiren yapay zeka uygulamaları. Aynı fıkranın (d) bendi kapsamında da kamusal alanlarda kolluk kuvvetleri tarafından gerçek zamanlı uzaktan biyometrik tanımlama sistemlerinin suçun önlenmesi kapsamındaki belirli amaçlar ve şartlar dışında kullanılması yasaklanmıştır. Buna göre anılan yapay zeka sistemleri ancak ilgili maddede sayılan şartların değerlendirilmesi ve bu yapay zeka sistemleri ile gerçekleştirilen her bir gerçek zamanlı uzaktan biyometrik tanımlama faaliyeti bakımından, haklı bir acil sebep bulunmadığı müddetçe, yargı mercileri veya bağımsız idari otoriteler tarafından verilmiş bir kararın bulunması hâlinde kullanılabilir.

3. YÜKSEK RİSKLİ YAPAY ZEKA UYGULAMALARI

AI Act kapsamında kabul edilemez düzeyde riskli bulunan yapay zekâ sistemlerine ilişkin yaklaşımın aksine yüksek riskli yapay zekâ sistemleri sınırlı sayıda belirlenmemiştir. Yapay zekâ sistemlerinin yüksek riskli olarak sınıflandırılması yalnızca sistemin işlevine göre değil yürürlükteki ürün güvenliği mevzuatı uyarınca tespit edilecek kullanım amacına göre de belirlenecektir9 . AI Act'in 6. maddesi uyarınca bir yapay zeka sisteminin (i) EK-II'de sayılan uyum mevzuatı kapsamında olan bir ürünün güvenlik bileşenlerinden olması veya ilgili yapay zeka sisteminin kendisinin böyle bir ürün teşkil etmesi ve (ii) bu yapay zeka sisteminin güvenlik bileşeni olduğu ürünün veya kendisinin böyle bir ürün teşkil etmesi hâlinde yapay zeka sisteminin, piyasaya sürülmesi veya hizmete sunulması amacıyla EK-II'de sayılan uyum mevzuatı uyarınca bir üçüncü tarafça uygunluk değerlendirilmesinden geçirilmesinin gerekli olması hâlinde ilgili yapay zeka sistemi yüksek riskli olarak kabul edilecektir. Ek olarak, bir yapay zekâ sistemi, AI Act'in EK-III'ünde yüksek riskli kabul edilerek listelenen 8 adet yapay zekâ uygulaması dahilinde bulunan belirli kullanım alanları arasında yer alıyor ise bu hâlde ilgili sistem AI Act kapsamında yüksek riskli olarak nitelendirilecektir. Avrupa Komisyonu EK-III'te yer alan yapay zekâ sistemlerinin kullanım alanlarına ilişkin bu alt-listeleri genişletme hakkına sahiptir.

EK-III kapsamında yüksek riskli olarak belirlenen yapay zeka sistemlerine örnek olarak (i) önemli altyapı hizmetlerinin güvenliği için kullanılan sistemler, (ii) eğitim kurumlarınca öğrencilerin değerlendirilmesi amacıyla kullanılan sistemler, (iii) istihdam süreçlerinde çalışan adaylarının seçimi için kullanılan sistemler, (iv) emniyet makamları tarafından gerçek kişilerin suç işleme olasılıklarının tespiti için kullanılan sistemler ve (v) göç, iltica ve sınır güvenliği işlemleri bağlamında yetkili makamlar tarafından poligraf (bkz. yalan makinesi) veya gerçek kişilerin duygu durumunu tespit etmek için kullanılan sistemler gösterilebilecektir.

a. Yüksek Riskli Yapay Zekâ Uygulamalarına İlişkin Gereklilikler

AI Act, yüksek riskli yapay zekâ sistemleri için bazı gereklilikler getirmiştir. Buna göre, düzenleme kapsamında öne çıkan gerekliliklerden biri yapay zekâ sisteminin kullanım ömrü boyunca aktif olacak ve düzenli olarak güncellenecek bir risk yönetim sistemi kurulmasıdır. Böylece kullanılan yapay zekâ sistemlerinin taşıdığı mevcut ve potansiyel risklere en iyi şekilde müdahale edilebilmesi amaçlanmaktadır. Yüksek riskli yapay zekâ sistemleri için getirilen bir diğer gereklilik ise veri yönetişimine ilişkindir. İlgili düzenleme uyarınca, modellerin verilerle eğitilmesine yönelik teknikleri kullanan yapay zekâ sistemleri eğitim, doğrulama ve test veri setleri için öngörülen kalite standartlarını sağlamalıdır10. Yapay zekâ sistemlerini çalıştıran algoritmaların beslendiği verilerin kalitesi sistemin ürettiği çıktıların hatalı veya önyargılı (ing. bias problem) olmasına sebep olduğundan söz konusu veri setlerinin konuya ilişkin, temsil edici nitelikte, hatasız ve eksiksiz olması büyük önem taşımaktadır11. AI Act'in 10. maddesinin dördüncü fıkrasında ayrıca, veri setlerinin yapay zekâ sisteminin kullanım amacı ile sistemin kullanılacağı coğrafi, davranışsal ve işlevsel bağlama uygun olarak oluşturulması gerektiğini düzenlenmektedir. Çekin'e göre, bu sayede yapay zekanın kullanıldığı bağlam ile özel hâl ve şartların dikkate alınmadığı, somut olayın şartlarından bağımsız veya o olaya uygun olmayan veri setleriyle eğitilmiş yapay zekâ sistemlerinin uygun olmayan, özellikle ayrımcılığa sebebiyet verebilecek sonuçlar doğurması önlenebilecektir12.

Yüksek riskli yapay zeka sistemlerinin kullanılabilmesi için taşınması gereken diğer gerekliliklerden bazıları ise şöyledir: (i) sistemin öngörülen yükümlülükleri yerine getirdiğini gösteren teknik belgelerin sistemin piyasaya sürülmeden veya hizmete sunulmadan önce ilgili makamlara sunulmuş olması, (ii) sistemin işler durumda olduğu süre boyunca gerçekleşen olayların ve işlemlerin log kaydının alınması, (iii) sistemin tasarım ve geliştirilmesinden itibaren kullanıcıların çıktıları yorumlayabilmesine imkân verecek seviyede şeffaflığının sağlanması, (iv) gerçek kişilerin denetimine imkân sağlanması ve (v) hazırlanan kullanım talimatnamesi içeriğinde sistemin doğru, hatasız ve yeterli siber güvenlik seviyesini sağlayacak şekilde tasarlandığına ilişkin beyanlara yer verilmesi.

b. Yüksek Riskli Yapay Zekâ Uygulamalarına İlişkin Yükümlülükler

Yapay zekâ sistemleri için getirilen gerekliliklere ek olarak AI Act kapsamında yüksek riskli yapay zekâ sistemi sağlayıcıları, üreticileri, ithalatçıları, kullanıcıları, dağıtımcıları ve sair üçüncü kişiler için de çeşitli yükümlülükler belirlenmiştir. Örneğin, AI Act'in 61. maddesi uyarınca yüksek riskli yapay zekâ sistemi sağlayıcıları sistemin sunduğu risklerin ciddiyetinin gerektirdiği nitelikleri haiz bir izleme sistemi kurmalı ve ürün piyasaya sürüldükten sonraki süreci takip etmelidir. Bu kapsamda, temel haklara yönelik ihlâl teşkil eden olay ve işlemlerin ulusal makamlara bildirilmesi gerekmektedir. Öte yandan, yapay zekâ sistemi ithalatçıları (i) ilgili uyumluluk değerlendirmesi prosedürünün yerine getirilmesini, (ii) teknik dokümantasyonun hazırlanmasını ve (iii) sistemin gerekli uyum etiketi ve kullanım talimatını taşımasını temin etmelidir. Benzer prosedürel yükümlülükler yüksek riskli yapay zekâ sistemleri bakımından dağıtımcılara da getirilmiştir. Ayrıca, herhangi bir dağıtımcı, ithalatçı, kullanıcı veya diğer üçüncü kişiler de (i) yüksek riskli bir yapay zekâ sistemini piyasaya sürmeleri veya hizmete sunmaları, (ii) yüksek riskli bir yapay zeka sistemin kullanım amacını değiştirmeleri ve (iii) yüksek riskli bir yapay zeka sisteminde önemli bir değişiklik yapmaları durumunda sağlayıcı olarak kabul edilecek ve yüksek riskli yapay zeka sistemi sağlayıcıları ile aynı yükümlülüklere sahip olacaktır. Yüksek riskli yapay zekâ sistemi kullanıcılarının ise (i) ilgili sistemleri kullanım talimatına uygun kullanmak, (ii) girdi verilerinin amaçla ilgili olmasını temin etmek, (iii) sistemin risk oluşturduğundan şüphelenilmesi hâlinde sağlayıcıya veya dağıtımcıya bilgi vererek sistemin kullanımının askıya alınmasını temin etmek gibi yükümlülükleri mevcuttur.

Ek olarak, 69. madde uyarınca yüksek riskli olmayan yapay zekâ sistemlerinin sağlayıcıları da gönüllü olarak yüksek riskli yapay zekâ sistemleri için öngörülen yükümlülüklere uymayı taahhüt edebilecektir.

Bu noktada, bazı yapay zekâ sistemlerinin bütünüyle yasaklanmış olması ve bazıları için de geniş bir uyum yükümlülüğü getirilmiş olmasına karşın Çekin'e göre bu iki kategori dahilinde kabul edilecek yapay zekâ sistemleri, uygulamada kullanılan yapay zekâ sistemlerinin küçük bir kısmına tekabül etmektedir. Bu doğrultuda, birçok yapay zekâ sistemi açısından AI Act kapsamında belirlenen yasak ya da yükümlülüklerin uygulanamayacağı ileri sürülmektedir13. Bununla birlikte, özellikle ChatGPT benzeri genel amaçlı ve üretici yapay zekâ sistemlerinin yüksek riskli yapay zekâ sistemi kategorisine girip girmediği hâlen tartışma konusudur14 15. Söz konusu yapay zekâ sistemlerinin çok çeşitli amaçlar doğrultusunda kullanılabilmesi nedeniyle sistemin yüksek veya düşük riskli kullanımlarının ortaya çıkması mümkündür16 17. Bununla birlikte, AI Act doğrudan bu konuda bir düzenlemeye yer vermemektedir. 

4. ŞEFFAFLIK YÜKÜMLÜLÜKLERİ

Yüksek riskli yapay zekâ sistemleri bakımından getirilen şeffaflık gerekliliklerine ek olarak AI Act'in 52. maddesi ile belli yapay zekâ sistemleri bakımından ayrıca risk kategorilerine bakılmaksızın şeffaflık yükümlülükleri de düzenlenmiştir. Buna göre, anılan maddenin birinci fıkrası uyarınca gerçek kişilerle etkileşime giren yapay zekâ sistemlerinin sağlayıcıları ilgili sistemi, durumun koşullarından ve kullanım bağlamından açıkça anlaşılmadığı sürece, gerçek kişileri bir yapay zekâ sistemi ile etkileşime girdikleri konusunda bilgilendirecek şekilde tasarlayacak ve geliştirecektir. Söz konusu şeffaflık yükümlülükleri (i) insanlarla etkileşime giren, (ii) duyguları tespit etmek veya biyometrik verilere dayalı olarak gerçek kişileri sosyal kategorilerle ilişkilendirmek için kullanılan veya (iii) içerik üreten veya içerikleri manipüle eden (ing. deep fake) sistemlere uygulanacaktır. Bu bilgilendirmeler sayesinde kişilerin söz konusu uygulama ve çıktıları hakkında daha bilinçli bir şekilde karar verebilmesi amaçlanmaktadır.

5. TEKNOLOJİK GELİŞMEYİ DESTEKLEYEN DÜZENLEMELER

Yapay zekâ teknolojisinin hâlen gelişim aşamasında olması nedeniyle AI Act ile getirilen uyum yükümlülüklerinin teknolojik gelişmenin hızını kesmemesi, AB'yi güvenilir ve insan haklarına saygılı yapay zekâ teknolojilerinin cazibe merkezi hâline getirmesi amaçlanmaktadır. Bu doğrultuda AI Act kapsamında üye ülkelerin yetkili otoriteleri veya Avrupa Veri Koruma Denetçisi (“EDPS”) tarafından kontrollü bir ortamda test edilebilmesini sağlayan regülasyon deney alanlarının (ing. regulatory sandboxes) oluşturulması teşvik edilmektedir. Bunun yanı sıra, 54. madde ile regülasyon deney alanlarında belirli önemli konularda kamu yararını korumaya yönelik olarak geliştirilen yenilikçi yapay zekâ sistemleri tarafından daha önce farklı amaçlarla hukuka uygun şekilde toplanan kişisel verilerin maddede yer alan şartların sağlanması hâlinde işlenebileceği düzenlenmiştir.

6. İDARİ DÜZENLEMELER

AI Act'in doğru ve AB çapında tutarlı şekilde uygulanmasını sağlaması ve yeni ortaya çıkan sorunlara ilişkin rehberlik etmesi amaçlarıyla bir Avrupa Yapay Zekâ Kurulu'nun (“Kurul”) kurulacağı ifade edilmektedir. Kurul, AI Act'in AB çapında sorunsuz, etkili ve tutarlı biçimde uygulanması için ulusal yetkili otoritelerle iş birliği içinde çalışacaktır. Ulusal düzeyde ise üye devletler en az bir yetkili otorite belirleyecektir. Ayrıca, EDPS'nin görev alanına giren durumlarda söz konusu ulusal otoriteler üzerinde denetçilik yapabileceği düzenlenmiştir.

AI Act'in 60. maddesinde Avrupa Komisyonu'nun yüksek riskli yapay zekâ sistemi sağlayıcıları tarafından girilen verilerle AB çapında kamuya açık bir veri tabanı oluşturulması öngörülmüştür. Bu yolla ilgili yapay zekâ sistemlerinin temel haklar üzerindeki etkilerinin izlenmesinin kolaylaştırılması amaçlanmaktadır. Ek olarak, AI Act'in 30'uncu maddesi uyarınca, her üye devlet, uygunluk değerlendirme kuruluşlarının değerlendirilmesi, belirlenmesi ve bildirilmesi ve bunların izlenmesi için gerekli prosedürlerin oluşturulması ve yürütülmesinden sorumlu bir bildirim makamı belirleyecek veya kuracaktır.

AI Act'in 63. ve 64. maddeleri uyarınca, kamusal makamlar yapay zekâ sistemleri piyasaya sürüldükten sonra ortaya çıkan risklere uygun müdahalelerde bulunabilmek amacıyla izleme ve uygulama yetkilerini haiz atamalar yapabilecek ve bu makamlar AI Act uyarınca tutulan belgeleri ve kullanılan eğitim, doğrulama ve test veri setlerini talep edebilecektir. Bu noktada, yüksek riskli yapay zekâ sistemlerinin düzenlemeye uyumluluğunun tespiti bakımından yetkili otoriteler, gerekçeli bir talepleri bulunması hâlinde sistemin kaynak koduna erişim sağlayabileceklerdir.

7. İDARİ PARA CEZALARI

AI Act'in 71. maddesi ile birlikte düzenleme hükümlerinin ihlâli neticesinde uygulanacak idari para cezası tutarları belirlenmiştir. Bu kapsamda, (i) yasaklanan yapay zeka uygulamalarını düzenleyen 5'inci madde ile veri yönetişimine ilişkin 10'uncu maddenin ihlâli hâlinde 30.000.000 avro veya failin şirket olması hâlinde şirketin bir önceki yıla ait global düzeydeki yıllık cirosunun %6'sına kadar, (ii) AI Act kapsamında belirlenen yapay zeka sistemlerine ilişkin diğer gereklilik ve yükümlülüklere aykırılık hâlinde 20.000.000 avro veya failin şirket olması hâlinde şirketin bir önceki yıla ait global düzeydeki yıllık cirosunun %4'üne kadar ve (iii) ulusal makamların talebine istinaden verilen yanıt kapsamında yanlış, eksik veya yanıltıcı bilgi sunulması hâlinde 10.000.000 avro veya failin şirket olması hâlinde şirketin bir önceki yıla ait global düzeydeki yıllık cirosunun %2'sine kadar idari para cezası uygulanabilecektir. Ek olarak, EDPS'nin düzenleme kapsamına giren AB kurum, kuruluş ve organları da yükümlülüklerine aykırı davranmaları hâlinde 500.000 avroya kadar idari para cezasına çarptırabilecektir.

SONUÇ

Yapay zekanın verimlilik bakımından sunduğu büyük ekonomik getirilerin ve pratik faydaların yanı sıra bireyler ve toplum için ayrımcılığa, fiziksel ve psikolojik zararlara yol açma gibi olumsuz sonuçlara neden olması da söz konusu olabilmektedir. AI Act, bu kapsamda hızlı teknolojik gelişmelerin ve bunlardan elde edilebilecek faydanın önüne geçmeden, risk odaklı bir yaklaşımla bireylerin temel haklarının korunmasını amaçlamaktadır. Bu kapsamda, kabul edilemez düzeyde riskli bulunan yapay zekâ sistemleri yasaklanmış, yüksek riskli yapay zeka sistemlerinin sahip olması gereken şartlar belirlenmiş ve bu sistemlerin sağlayıcıları, üreticileri, ithalatçıları, kullanıcıları, dağıtımcıları ve sair üçüncü kişiler için de çeşitli yükümlülükler getirilmiştir. Ek olarak, kullanıcılarla etkileşime giren ve insanlar üzerinde önemli etkiler doğurabilecek yapay zekâ sistemleri için şeffaflık yükümlülükleri getirilmiştir. Bütün bu düzenlemelerin yatırımcı ve girişimcileri sektöre yönelmekten caydırmaması, hatta tam aksine güvenli yapay zekâ uygulamalarının geliştirilmesine ön ayak olunması amacıyla teknolojik gelişmeyi ve inovasyonu destekleyici düzenlemeler de yapılmıştır. Son olarak, AI Act kapsamında öngörülen hükümlerin ihlâline yönelik ciddi para cezaları belirlenmiştir. Bugüne kadar yapay zekâ hakkında yapılan en kapsamlı yasal çalışma niteliğini koruyan AI Act düzenlemesinin yürürlüğe girmesinin özellikle yer bakımından uygulanmasının kapsamı ve belirlenen yüksek ceza tutarları dikkate alındığında AB sınırlarını aşan geniş bir etkiye ulaşacağı kuşkusuzdur.

Footnotes

1. Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts, Erişim Tarihi: 6 Temmuz 2023, https://eur-lex.europa.eu/ resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF

2. Yan Luo, Xuezi Dan, Vicky Liu ve Nicholas Shepherd, “China Proposes Draft Measures to Regulate Generative AI”, Erişim Tarihi: 7 Temmuz 2023, https://www.insideprivacy.com/artificial-intelligence/china-proposes-draft-measures-to-regulate-generative-ai/

3. Ryan Browne, “Europe takes aim at ChatGPT with what might soon be the West's first A.I. law. Here's what it means”, Erişim Tarihi: 7 Temmuz 2023, https://www.cnbc.com/2023/05/15/eu-ai-act-europe-takes-aim-at-chatgpt-with-landmark-regulation.html

4.  Patrick Van Eecke ve Enrique Gallego Capdevila, “One Step Closer to a European Law Regulating Artificial Intelligence”, Erişim Tarihi: 7 Temmuz 2023, https://www.cooley.com/news/insight/2023/2023-06-20-one-step-closer-to-a-european-law-regulating-artificial-intelligence

5.  Şerafettin EKİCİ, Bilişim ve Teknoloji Hukuku, Seçkin Yayıncılık, Ankara 2023, 2. Baskı, s. 224-226

6.  AI Act, s. 1

7. AI Act, s. 12

8. AI Act, s. 12

9.  AI Act, s.13

10. Yapay zekâ sistemlerinin performansı çok geniş kapsamlı eğitim verileriyle beslenmesine bağlı olduğundan bu veriler arasında belli bir kişiye ilişkin veriler yer alabilmektedir. Esasen bu husus çeşitli ülkelerdeki kişisel veri koruma mevzuatları (örn. 6698 Sayılı Kişisel Verileri Koruma Kanunu, European Union General Data Protection Regulation) çerçevesinde ele alınabilmektedir.

11. Mesut Serdar ÇEKİN, Veri Hukuku, On İki Levha Yayıncılık, İstanbul 2023, s. 75

12. ÇEKİN, a.g.e., s.77

13. ÇEKİN, a.g.e., s.69

14. Mark Decker, “Chat GPT and the EU AI Act: Will New Regulations be Added?”, Erişim Tarihi: 7 Temmuz 2023, https://djilp. org/chat-gpt-and-the-eu-ai-act-will-new-regulations-be-added/

15. Natali Helberger ve Nicholas Diakopoulos, “ChatGPT and the AI Act”, Erişim Tarihi: 7 Temmuz 2023, https://policyreview. info/essay/chatgpt-and-ai-act

16. Decker, a.g.e.

17. Gian Volpicelli, “ChatGPT broke the EU plan to regulate AI”, Erişim Tarihi: 7 Temmuz 2023, https://www.politico.eu/article/ eu-plan-regulate-chatgpt-openai-artificial-intelligence-act/ 

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.