ANKARA - BHA
Daha önce küfür ve hakaret içeren yanıtlarıyla gündeme gelen Grok’un, kullanıcı yönlendirmeleriyle fotoğraflardaki kıyafetleri silerek çıplaklığa yakın görseller oluşturduğunu belirten Kamer, bunun teknolojinin ne kadar tehlikeli bir araca dönüşebileceğini bir kez daha gösterdiğini ifade etti.
Prof. Dr. Kamer, bazı örneklerde bankta oturan bir kadının fotoğrafının yapay zekâ tarafından yeniden tasvir edilerek teşhirci nitelikte görseller üretildiğini, bu görüntülerin kısa sürede milyonlarca erişime ulaştığını aktardı. Bu durumun yalnızca etik değil, aynı zamanda hukuki bir sorun olduğuna dikkat çekti.
Kamer, sorumluluğun öncelikle bu sistemleri yöneten şirketlerde olduğunu vurgulayarak, “‘Kullanıcı istedi, ben yaptım’ savunması kabul edilemez” dedi. Bu tür talepleri anında reddedecek teknik filtrelerin zorunlu hale getirilmesi gerektiğini ifade etti.
Üretilen yapay görsellerin gerçeklerinden ayırt edilebilmesi için belirleyici işaretler konulmasının önemine değinen Kamer, yapay zekâ modellerinin piyasaya sürülmeden önce bağımsız kuruluşlarca denetlenmesi ve test edilmesi gerektiğini söyledi.
“Teknoloji asla tarafsız değildir”
Kamer, insan onurunu merkeze alan yasal düzenlemeler ve teknik bariyerler oluşturulmadığı sürece yapay zekânın tacizkâr uygulamalarla gündeme gelmeye devam edeceği uyarısında bulundu.
