Stanford araştırmacıları, data kümesinde CSAM’nin varlığının, bilgiler üzerinde eğitilen yapay zeka modellerinin yeni ve hatta gerçekçi CSAM örnekleri oluşturmasına imkan sağlayabileceğini belirtiyor.
Veri setini oluşturan kar hedefi gütmeyen kuruluş LAION, birinci etapta data kümelerini yayınlamadan evvel yasa dışı içeriği tespit etmek ve bunlardan kaldırmak için filtreler oluşturduğunu söyledi. Lakin 404, LAION önderlerinin en az 2021’den bu yana, internetten milyarlarca manzarayı süpürürken sistemlerinin CSAM’i alma ihtimalinin olduğunun farkında olduğuna dikkat çekiyor.
İlginç suçlama! Yapay zeka çocuk istismarına karşı müşahede altında!
Önceki raporlara nazaran, kelam konusu LAION-5B data seti “milyonlarca pornografi, şiddet, çocuk çıplaklığı, ırkçı memler, nefret sembolleri, telif hakkıyla korunan sanat yapıtları ve özel şirket web sitelerinden alınmış eserler” içeriyor. Genel olarak 5 milyardan fazla görsel ve ilgili açıklayıcı başlık içeriyor. LAION’un kurucusu Christoph Schuhmann, bu yılın başlarında data setindeki rastgele bir CSAM’den haberdar olmadığını lakin bilgileri çok derinlemesine incelemediğini söyledi.
ABD’deki çoğu kurumun doğrulama hedefiyle CSAM’i görüntülemesi yasa dışı. Bu nedenle Stanford araştırmacıları potansiyel CSAM’yi aramak için çeşitli teknikler kullandılar. Makalelerine nazaran, “algısal karma tabanlı algılama, kriptografik karma tabanlı algılama ve bilgi kümesindeki manzara yerleştirmelerinden yararlanan en yakın komşu analizini” kullandılar. Kuşkulu CSAM içeren 3.226 giriş buldular. Bu imajların birçoklarının CSAM olduğu PhotoDNA ve Kanada Çocuk Muhafaza Merkezi üzere üçüncü taraflarca doğrulandı.
Activision’da bir devir daha sona eriyor!
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.