ChatGPT ve yapay zekanın getirdiği olanaklar lansmanından bu yana hararetle tartışılıyor.
Pek çok kişi, insan zekasını büyütecek bu neredeyse sınırsız aracı merak ederken, bu akıllı öğrenme platformlarının sunduğu büyük ölçüde ölçülemeyen risklere ilişkin endişeler dile getirildi.
Geçtiğimiz ay İtalya, ChatGPT’ye karşı tavır alarak “ChatGPT gizliliğe saygı duyana kadar” platformu yasaklayan ilk Batılı ülke oldu.
Peki bu yeni araçların mahremiyete etkileri nelerdir ve bunlar hakkında ne kadar endişelenmeliyiz?
ChatGPT’nin gizlilik kara deliği
ChatGPT’nin verileri gelişigüzel toplama yöntemi göz önüne alındığında, sosyal medya, blog gönderileri, ürün incelemeleri, sohbet forumları ve hatta halka açıksa e-posta yazışmaları dahil olmak üzere çok çeşitli kaynak materyallerden faydalanabilir.
Bu, hem kişisel bilgilerin hem de verilerin kişilerin bilgisi veya rızası olmadan kullanıldığı anlamına gelir.
ChatGPT’ye kaydolursanız, IP adresinizin, tarayıcı türünüzün ve ayarlarınızın tamamının saklanmasına, ayrıca ChatGPT ile olan tüm veri etkileşimlerinizin ve daha geniş internet tarama etkinliğinizin saklanmasına izin veren bir gizlilik politikasını kabul etmiş olursunuz.

Tüm bunlar, belirtilmeyen üçüncü şahıslarla “size ayrıca bildirimde bulunmaksızın” paylaşılabilir.
ChatGPT, diğer çevrimiçi etkinliklerinizin yanı sıra sohbetlerinizi de analiz ederek her kullanıcının ilgi alanlarının, inançlarının ve endişelerinin bir profilini geliştirir.
Bu aynı zamanda günümüzün arama motorları için de geçerlidir. Ancak “akıllı” bir öğrenme platformu olarak ChatGPT, hem kullanıcıyla hem de kendisine verilen bilgilerle tamamen yeni bir şekilde etkileşim kurma potansiyeline sahiptir ve sizi bir yapay zekayla değil başka bir insanla konuştuğunuzu düşünmenize neden olabilecek bir diyalog yaratacaktır. sistem.
Botlar da bazı şeyleri yanlış anlayabilir
ChatGPT, tüm bu girdileri bir araya getirir ve “herhangi bir şeye yanıt vermek” amacıyla bunları daha önce mümkün olmayan bir ölçekte analiz eder.
Doğru soru sorulduğu takdirde hem kullanıcılarının hem de internette paylaşım yapan ya da adı geçen herkesin kişisel bilgilerini kolaylıkla açığa çıkarabilir.
Bir kişinin rızası olmadan, siyasi inançlar veya cinsel yönelim ifşa edilebilir ve utanç verici, hatta kariyerini mahvedebilecek bilgilerin yayınlanması anlamına gelebilir.

ChatGPT’nin işleri yanlış anlama ve hatta uydurma yönündeki kanıtlanmış eğilimi, zarar verici ve asılsız iddialara yol açabilir.
Bazı insanlar yine de onlara inanacak ve chatbotun daha önce saklanan ve gizli bilgileri ortaya çıkardığı inancıyla yanlış beyanları daha da yayacaklar.
Temel güvenlik önlemleri bu sorunların üstesinden gelebilir mi?
Bu makine öğrenimi sistemlerinin gücü göz önüne alındığında, programlarına temel güvenlik önlemlerini bile eklemek zordur.
Tüm varsayımları, büyük miktarlarda veriyi analiz edebilmeleri, çevrimiçi olarak kamuya açık olan her şeyi araştırabilmeleri ve bunlardan çok hızlı bir şekilde sonuç çıkarabilmeleridir.

Chatbotun birisinin bilgisi veya izni olmadan veri topladığını tespit etmenin bir yolu yoktur ve kaynaklar olmadan, size sağlanan bilgilerin güvenilirliğini kontrol etme imkanı yoktur.
İnsanların mevcut güvenlik önlemlerini “hapisten kırmayı” ne kadar kolay başardıklarını gördük, bu da platformlara yerleştirilen başka kuralların da atlatılamayacağına dair çok az umut veriyor.
Gizlilik yasaları icatların hızına yetişemiyor
Henüz tam boyutunu göremediğimiz bu yeni tehdide ayak uydurmak için gizlilik yasalarının yapması gereken çok şey var. ChatGPT ve diğerlerinin verilerimizi kullanma şekli zaten açık bir gizlilik ihlalidir. özellikle hassas olduğunda ve bizi tanımlamak için kullanılabildiğinde.
Mevcut gizlilik yasalarının temel ilkesi olan bağlamsal bütünlük, bir kişinin bilgileri veya verileri kamuya açık olsa bile orijinal bağlamı dışında ifşa edilmemesi gerektiğini belirtir. Bu, ChatGPT tarafından göz ardı edilen başka bir kuraldır.

Yapay zeka sohbet robotlarının öğrenme biçiminin doğasında olan veri koruma ihlallerine neredeyse hiç değinmedik.
Şu anda, diğer şirketlerde olduğu gibi bireylerin kendilerinde hangi kişisel bilgilerin saklandığını kontrol etmelerine veya bu bilgilerin silinmesini talep etmelerine yönelik herhangi bir prosedür bulunmamaktadır.
İlk etapta bu verilerin saklanmasına da izin vermedik; sırf internette bir yerde mevcut olması ChatGPT’ye bu verileri kullanma hakkı vermemelidir.
Yapay zekanın bu yeni çağında gizliliğimizi nasıl koruyabiliriz?
Özel İnternet Erişimi, ChatGPT ve diğer AI platformlarında bulunan gizlilik risklerini yakından izlemektedir.
Microsoft Bing, Google Bard ve Çinli teknoloji devi Baidu’dan Ernie dahil olmak üzere pek çok rakibin hararetle OpenAI’nin liderliğini kovaladığı ve neredeyse tamamen düzenlenmeyen bir sektörde gizlilik ve güvenlik etkileri daha da artıyor.
Yapay zekanın potansiyelini kucaklarken, onun sunduğu gizlilik tehdidine karşı da dikkatli olmalıyız. Gizliliğimizi koruyan yasa ve düzenlemelerin uyum sağlaması gerekiyor.

Bireyler olarak verilerimizi korumak ve kişisel bilgilerimizi güvende tutmak için adımlar atmamız gerekiyor.
Bu, çevrimiçi olarak paylaşmaktan mutluluk duyacağımız şeyleri tam olarak düşünmeyi ve bir makine öğrenimi platformunun artık bu bilgileri ne kadar kolay bulabileceğini, çıkarabileceğini ve herkesle paylaşabileceğini bilmeyi içerir.
Sonuçta, bize sunulan cevapları körü körüne kabul etmek yerine, sorgulayarak, bu yeni teknolojiye ne kadar güvendiğimiz konusunda dikkatli olmamız gerekiyor.
Jose Blaya, Özel İnternet Erişimi’nde Mühendislik Direktörüdür. Siber güvenlik ve mobil platformlar konusunda güçlü bir geçmişe sahip bir teknoloji mühendisliği uzmanı ve dijital gizlilik ve özgürlüğün küresel savunucusudur.
_Euronews olarak tüm görüşlerin önemli olduğuna inanıyoruz. Önerilerinizi veya sunumlarınızı göndermek ve sohbetin bir parçası olmak için [email protected] adresinden bizimle iletişime geçin.
_