Facebook, taciz içeren fotoğraf ve video aramalarını çocuklarla sınırlamayı ve bu tür içeriklerin paylaşılmasını önlemeyi amaçlayan yeni araçları test ediyor. Test edilen özellikler arasında güncellenmiş uyarılar, geliştirilmiş otomatik uyarılar ve yeni raporlama araçları bulunur. Facebook, süreçlerini iyileştirmek için bu tür gönderilerin arkasındaki nedenleri belirlemek için daha önce tespit ettiği ve yetkililere bildirdiği tüm çocuk istismarı içeriğiyle ilgili bir çalışma yürüttüğünü söyledi. Şirket, yalnızca 2020 yılında Temmuz'dan Eylül'e kadar en az 13 milyon kötü amaçlı görüntü tespit ettiklerini belirtti.
Özelliklerin ilkinde, kullanıcılar çocuk istismarıyla ilişkili terimleri aradıklarında, davranışları değiştirmek için yardım istemeleri için önerilerle birlikte bir açılır pencere görünür.
Başka bir araç, kullanıcıları kötüye kullanım amaçlı içeriği paylaşmaya çalışan hesaplarını devre dışı bırakabileceği konusunda bilgilendirerek bu tür içeriğin yayılmasını durdurmayı amaçlamaktadır.
Facebook Küresel Güvenlik Başkanı Antigone Davis:"Uygulamalarımızı çocuklara zarar vermek için kullanmak iğrenç ve kabul edilemez. Çocuk istismarıyla mücadele sektörü. Liderlik çabaları, istismarı önlemeye, politikalarımızı ihlal eden içeriği tespit etmeye ve bildirmeye ve uzmanlar ve yetkililerle çalışmaya odaklanıyor çocukların güvenliğini sağlamak için. "Facebook ayrıca çocuk güvenliği politikalarını ve raporlama araçlarını da güncelledi. Şirket, Facebook ve Instagram'da daha hızlı müdahale için "Çıplaklık ve Cinsel Aktivite" kategorisi altına "Çocuk İçerir" seçeneğini ekledi.