Dilansir dari TechCrunch, Jumat (25/10/2018), Facebook telah mengembangkan dan menerapkan software ini dalam setahun terakhir. Global Head of Safety Facebook, Antigone Davis mengatakan bahwa 99 persen dari konten tersebut berhasil dihapus sebelum ada laporan dari pengguna.
"Teknologi ini dapat mengidentifikasi konten-konten gambar yang bersifat nudity dan hal-hal yang bersifat eksploitasi anak ketika baru diunggah," ujar Davis.
Bahkan bila perlu, AI akan dapat langsung mengeliminasi konten dan akun penggunanya yang sengaja mengunggah gambar-gambar pornografi maupun hal yang berhubungan dengan eksploitas terhadap anak.
Walaupun terbilang efektif, software dengan format mechine learning ini masih memiliki sejumlah kekurangan. Terlebih dalam menseleksi konten foto anak-anak saat bersama orang tuanya yang tak sengaja dihapus oleh Facebook.
"Banyak orang tua yang mengeluh foto anaknya yang dirasa tidak berbahaya justru ikut dihapus oleh Facebook," lanjut Davis di blog Facebooknya.
Davis mengatakan software ini juga mendeteksi foto dengan konten non-seksual untuk menghindari potensi penyalahgunaan. Pengguna sendiri bisa mengajukan banding jika merasa dirugikan.
<iframe src="https://www.facebook.com/plugins/video.php?href=https%3A%2F%2Fwww.facebook.com%2Ffacebook%2Fvideos%2F409069096292549%2F&show_text=0&width=560" width="560" height="315" style="border:none;overflow:hidden" scrolling="no" frameborder="0" allowTransparency="true" allowFullScreen="true"></iframe>
Teknologi serupa milik Facebook juga dianggap tidak efektif dan akurat. Seperti saat dihapusnya foto ikonik 'Napalm Girl' yang memperlihatkan Phan Thi Kim Phuc yang melarikan dalam keadaan telanjang dan menderita luka bakar setelah serangan Napalm di desanya di Vietnam.
Kendati demikian, memoderasi konten merupakan hal yang wajar bagi perusahaan media sosial. Terlebih bisa dilakukan otomatis dengan menggunakan teknologi kecerdasan buatan, sehingga bisa meminimalisir gangguan kerja yang biasa dialami moderator konten umumnya secara manual.
Di mana sebelumnya, Selena Scola, mantan moderator konten Facebook, menggugat perusahaan yang mengklaim bahwa penyaringan ribuan gambar kekerasan telah menyebabkannya ia mengalami gangguan stres pasca-trauma.