Yapay zeka birçok iş alanı için pratik çözümler getirse de veri güvenliği konusunda ciddi sorunlara da neden oluyor. Bir akademisyenin başına gelenler yapay zekanın kullanıcılara 'ihanet edebileceğini gösterdi.
Türkiye gazetesinden Mahmut Özay'ın haberine göre, olay, Doç. Dr. Yusuf Kızıltaş'ın SSCI indeksli prestijli bir dergiden aldığı hakemlik davetiyle gün yüzüne çıktı. Hakemlik yaptığı makalenin kaynakça bölümünü inceleyen Kızıltaş, kendi adına yapılmış atıflarla karşılaştı. Kaynakçada yer alan üç çalışmadan ikisinin kendisine ait olduğunu belirleyen araştırmacı, üçüncü çalışmanın ise gerçekte var olmadığını fark etti.
Asıl çarpıcı detay ise söz konusu "hayalet makale"nin başlık ve içeriğinin, Kızıltaş'ın o sırada henüz yayımlanmamış ve yalnızca sınırlı sayıda hakemin bildiği güncel çalışmasıyla bire bir örtüşmesiydi. Araştırmacının, bu çalışması için daha önce yapay zekâdan dil ve istatistik desteği aldığı öğrenildi. Yaşanan durum, yapay zekâ sistemlerinin akademik metinlerle kurduğu ilişkinin sınırlarını sorgulatır hâle getirdi.
Uzmanlara göre bu örnek, yapay zekânın yalnızca internette yer alan mevcut verileri harmanlamakla kalmadığını; kullanıcıların kendisine emanet ettiği gizli ve yayımlanmamış içerikleri de veri havuzuna dâhil ederek dönüştürebildiğini gösteriyor.
Bu süreç, "dijital mahremiyet ihlalinin yeni ve görünür bir boyutu" olarak tanımlanıyor. Yapay zekâ ile paylaşılan akademik metinler, yayımlanma süreci tamamlanmadan dolaylı yollardan ifşa edilme riskiyle karşı karşıya kalıyor.
Dünyanın önde gelen yayınevlerinden Elsevier, SAGE ve Taylor & Francis, yapay zekânın dil düzenleme süreçlerinde kullanılmasına şeffaf beyan şartıyla izin veriyor. Ancak son yaşanan hadise, bu kullanımın yalnızca etik bir tercih değil, aynı zamanda ciddi bir veri güvenliği problemi olduğunu da ortaya koydu.
Uzmanlar, bilimsel üretim süreçlerinde yapay zekâ desteği alan akademisyenleri çeşitli kritik noktalarda uyarıyor. Analiz veya düzeltme amacıyla sisteme yüklenen metinlerin, yapay zekâ tarafından "öğrenme malzemesi" olarak değerlendirilip veri havuzuna dâhil edilebileceği gerçeğinin göz ardı edilmemesi gerektiği vurgulanıyor.
Bu durumun doğurduğu en büyük güvenlik risklerinden biri ise, yapay zekânın araştırmacıların adına henüz yayımlanmamış ya da hiç var olmamış uydurma kaynaklar üreterek akademik itibarı ciddi biçimde tehlikeye atabilmesi.
Gelinen noktada bilimsel üretim sürecinin, yalnızca akademik etik kurallarıyla değil; kişisel verilerin korunması adına sıkı siber güvenlik protokolleriyle de desteklenmesi gerektiği ifade ediliyor.
Yapay zekâ ile makale yazdırmanın etik dışı olmasının yanı sıra, sistemlerin en büyük risklerinden biri uzmanların çalışma alanlarını taklit ederek onlar adına "hayalet kaynaklar" üretmesi olarak öne çıkıyor.
Özellikle çok sayıda eseri bulunan araştırmacıların verilerinden beslenen yapay zekâ, son derece gerçekçi görünen ancak tamamen uydurma referanslar oluşturarak akademik güvenilirliği ciddi biçimde tehdit ediyor.
Kaynak: Diğer / Haber Merkezi