Open AI tarafından geliştirilen Chat Generative Pre-trained Transformer (ChatGPT) modeli, son zamanlarda büyük bir gündem yaratmıştır. Yapay Zeka (AI) teknolojisi ile desteklenmiş ChatGPT, Kasım 2022 tarihinde kullanıma sunuldu ve dünya çapında bir anda popülerlik kazandı. ChatGPT'nin özellikle teknik, yasal ve bilimsel soruları yanıtlama ve yasal belgeler hazırlamak konularına çok hızlı cevap verebiliyor olması ile verdiği yanıtların oldukça tatmin edici ve çok kapsamlı bir analizin ürünü olması hususları ChatGPT kullanımını dünya çapında giderek artıran unsurlardandır.

ChatGPT her ne kadar yenilikçi ve hayatı oldukça kolaylaştıran bir buluş olarak yapay zekayı teknolojinin kayda değer bir unsuru haline getirmiş olsa da; kullanıcılar ile ilgili diğer kimselerin bazı riskler konusunda dikkatli olması gerekmektedir. Nitekim ChatGPT ile başlayan sohbet robotu mantığının çok yakında ilgili Pazarda bir rekabet ortamı oluşturacağı ve birden fazla firma tarafından da benzerlerinin üretileceği beklenen bir gerçektir. Örneğin Şubat 2023'te Google, LaMDA adlı farklı bir dil modelini kullanan kendi sohbet robotu Bard'ı piyasaya sürdü.

Henüz ChatGPT kavramı hayatımıza yeni girmişken; OpenAI tarafından, gelişmiş muhakeme, karmaşık talimat anlayışı ve daha fazla yaratıcılık gerektiren görevlerde oldukça başarılı olan GPT-4 tanıtılmıştır. Kullanıcı yorumlarına göre GPT-4; resimleri tanımlıyor, tarifler oluşturuyor, video oyunu kodları yazabiliyor ve WEB sitesi kurabiliyor.

İşbu makale ile ChatGPT kavramına hukuki açıdan genel olarak bakılarak riskleri ve ortaya çıkarabileceği sorunlar ele alınmaya çalışılacaktır:

1-Kişisel Veri Riskleri

ChatGPT gibi yapay zeka sohbet robotlarının çalışması ve kendini gün geçtikçe geliştirerek gündeme uyum sağlayabilmesi için geniş kapsamda bir veri girişine ihtiyacı vardır. Bu veri girişi bireylerin kişisel verilerini de içerebilmektedir. Kişisel veri sahiplerinin onayı olmaksızın OpenAI tarafından ChatGPT'nin eğitilmesi amacıyla kullanılan kişisel veriler, Kişisel Verilen Korunması yasalarını ihlal edebilecektir. Kişiler, kişisel verilerini halka açık platformlarda yayınlamış olsa dahi bu durum, ilgili kişilerin verilerinin ChatGPT tarafından izin alınmaksızın hukuka aykırı olarak kullanılabilmesi anlamına gelmeyecektir.

2-Yanıltıcı Bilgi Riski

ChatGPT doğası gereği, kendisine veri girişi yapıldığı ve programlandığı ölçüde sorulan soruları yanıtlayabilmektedir. Dolayısıyla verinin ve/veya verilerin hatalı girilme ihtimali karşısında, ChatGPT'nin de sorulara cevap olarak hatalı metin üreteceği sonucuna ulaşılabilecektir. Veyahut ChatGPT'nin eğitilmesi amacıyla girilen veriler hata, yanlışlık veya önyargı içeriyorsa, bu hususlar da yine ChatGPT'nin vereceği yanıtlara yansıyacaktır. Bu durumda; ChatGPT'nin itibara zarar verme ve yanıltıcı bilgi yayma gibi ciddi sonuçları olabilecek hatalı içerik oluşturma potansiyelinin mevcut olduğu söylenebilecektir. Bu senaryoda ChatGPT'nin cevap çıktılarını kullanan kimselerin, aldığı işbu bilgilerin doğruluğunu ve güncelliğini teyit etmesi gerekmektedir. Aksi takdirde bu kimselerin hukuki ve cezai sorumluluğunun gündeme gelmesi ihtimali doğacaktır.

3-Fikri Mülkiyet ve İhlal Durumu

ChatGPT'nin esaslı sorunlarından ve risklerinden birisini fikri mülkiyet hakları konusu teşkil etmektedir. ChatGPT, fikri mülkiyet yasalarıyla korunan çalışmaları da içeren çok büyük miktarda veri üzerinde eğitilmiştir. ChatGPT'nin üzerinde eğitildiği veri kümeleri telif hakkıyla korunan eserleri de içerdiğinden, ChatGPT tarafından üretilen çıktının telif hakkıyla korunan çalışmaların kontrolsüz çoğaltılması veya işbu çalışmalara benzer çalışmaların yayılması riski ortaya çıkmaktadır. Nitekim hayatımıza çok yeni girmiş ChatGPT tarafından oluşturulan bir çıktının kişiler tarafından kullanılmasını engelleyen veya bu türden hukuka aykırılık hallerini önlemeyi amaçlayan herhangi bir düzenleme henüz bulunmamaktadır. Dolayısıyla bu senaryoda telif hakkı ihlali sorunu gündeme gelecektir ve işbu ihlal riski yalnızca ChatGPT'yi değil; ChatGPT çıktısını kullanan kişiyi de kapsayabilecektir.

4-Gizlilik Sorunu

ChatGPT kullanmanın bir başka riski ise gizli bilgilerin yetkisiz şekilde ifşası konusudur. ChatGPT kullanan bir tacirin, yapay zeka sohbet robotuna soru sorarken ticari açıdan hassas ve/veya gizli bilgi veri girişinde bulunabilecektir. Bu durumda, ticari açıdan hassas ve/veya gizli bilgiler ChatGPT'nin veri tabanının bir parçası olacağından, bu türden bilgiler diğer benzer veya alakalı sorularda veya taleplerde çıktı üretmek amacıyla kullanılabilecektir. Dolayısıyla kullanıcıların ChatGPT'ye girdiği verilere ve yazdığı bilgilere karşı ekstra dikkatli olmasında fayda vardır.

5-İntihal Problemi

İntihal özellikle eğitim ve akademi bünyesinde ciddi bir problem olarak kabul edilmektedir. Günümüzde kontrolsüz bir şekilde ChatGPT kullanan öğrencilerin, ödevlerini ChatGPT aracılığıyla yapmakta olduğu görülmektedir. Örneğin öğrenciler bilim, edebiyat, hukuk gibi herhangi bir konuda makale yazmak için ChatGPT'yi kullanabilecek ve saniyeler içerisinde makale hazır olacaktır. Sadece öğrenciler açısından değil; sözel çoğu meslek erbabı tarafından da ChatGPT teknolojisi pek tabii kullanılabilecektir. Örneğin bir gazeteci makalesini ChatGPT aracılığıyla çok kısa sürede büyük bir verimle yazabilecektir. İşte bu intihal durumu işbu makale ile ortaya çıkacağı düşünülen diğer risk ve sorunlara ek olarak etik kaygıları da beraberinde getirecektir. Kişisel gelişimi engellemesinin yanı sıra haksız rekabet ortamı oluşturacağı ortadadır.

6-Hukuk Alanında ChatGPT Kullanımı

ChatGPT, bir davanın olası sonucunu tahmin etmek veya mevcut yasal içtihada dayalı bir hukuki görüş oluşturmak için kullanılabileceğinden, hukuk alanında devrim yaratma potansiyeline sahiptir. Ek olarak, GPT-4, yasal sözleşmeler oluşturmak veya belirli bir yasal pozisyon için argümanlar geliştirmek için kullanılabilecektir.

Bununla birlikte, GPT-4'ün hukuk mesleğinde kullanılması avantajlarının yanısıra bazı soruları da gündeme getirecektir. Örneğin, GPT-4'ün yasal dilin nüanslarını (özellikle dil bilgisi hatalarını ve/veya anlam düşüklüklerini) veya mevcut yasal içtihatların karmaşıklıklarını, nasıl yorumlayabileceği açık ve net değildir. Ek olarak, teknolojinin etik standartları nasıl belirleyip bunlara bağlı kalacağı belirsiz olduğundan, GPT-4'ü yasal muhakeme ve hukuki yorum için kullanırken ne denli adil ve adaletli çıktılar oluşturacağı konusunda soru işaretleri bulunmaktadır.

7-Yükümlülük ve Sorumluluk

ChatGPT'yi kullanırken kullanıcılar, ChatGPT kullanım koşulları kapsamında ChatGPT'nin sorumluluk reddi ve sınırlamalarına ayrıca dikkat etmelidir.

SONUÇ

ChatGPT, avukatlar ve hukukçular için bir dizi zorluk teşkil eder. Bu konuda ortaya çıkan en büyük sorun ise; teknolojinin hukukun karmaşıklığına ayak uyduramaması, hukukun ise teknolojinin hızına ayak uyduramamasıdır. ChatGPT, basit yasal sorulara otomatik yanıtlar oluşturabilirken, daha karmaşık kavramları kavrayamaz veya içtihatları yerel içtihatlara paralel bir şekilde sağlıklı yorumlayamaz. Bu anlayış eksikliği, yanlış veya eksik tavsiyelere yol açabilecektir. Ayrıca, insan olmayan bir varlığın yasal tavsiye vermesinin uygun olup olmadığı konusunda etik kaygılar da yabancı doktrinde tartışma konusudur. Bu sebeple ChatGPT'nin günlük hayat içerisinde avantajlarının olduğu gerçeğinin yanı sıra, dezavantaj ve riskler de barındırdığı unutulmamalıdır.

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.