Upaya Facebook Jaga Media Sosial dari Konten Negatif Jelang Pemilu

28 Februari 2019 15:47 WIB
comment
0
sosmed-whatsapp-white
copy-link-circle
more-vertical
Logo Facebook. Foto: REUTERS/Regis Duvignau
zoom-in-whitePerbesar
Logo Facebook. Foto: REUTERS/Regis Duvignau
ADVERTISEMENT
Jelang pemilihan umum (Pemilu) di Indonesia yang akan digelar pada 17 April mendatang, platform media sosial Facebook berkontribusi untuk menjaga ketentraman masyarakat dunia maya. Salah satu upaya yang dilakukan Facebook ialah dengan melakukan diskusi dengan Lembaga Swadaya Masyarakat (LSM) Indonesia.
ADVERTISEMENT
Content Policy Facebook Asia Pacific, Sheen Handoo, menjelaskan bahwa media sosial buatan Mark Zuckerberg tersebut memiliki banyak agenda untuk terus memperbaiki kebijakan komunitasnya. Dengan melakukan diskusi dengan LSM, Facebook berharap bisa mendapatkan masukan agar bisa mengembangkan kebijakan yang lebih terlokalisasi.
"Kunjungan kali ini pun kita bertemu dengan lebih dari NGO (Non-Government Organization). Facebook mencari input dari masing-masing NGO, apa nih input yang bisa dipelajari. Di sisi lain kita juga membagikan standar komunitas seperti ini apakah dari masing-masing NGO tersebut ada input tersendiri apa enggak. Jadi kita memang sinkronisasi semua peraturan-peratuan yang memang kita miliki," ungkap Sheen, dalam acara diskusi di Ruang Komunal Indonesia (RuKI) SCBD, Jakarta, Kamis (28/2).
Content Policy Facebook Asia Pacific, Sheen Handoo. Foto: Astrid Rahadiani/kumparan
Selain mendapatkan umpan balik, Facebook juga ingin lebih dalam mengedukasi masyarakat Indonesia tentang kebijakan komunitas Facebook.
ADVERTISEMENT
"Kami ingin lebih mengerti tantangan lokal yang bakal ditemukan selama menjelang Pemilu dan mengetahui bagaimana cara mengedukasi mereka (masyarakat)," tambah Sheen.
Tak hanya bekerja sama dengan NGO, Facebook juga memberikan upaya ekstra dengan memperkuat tim yang bekerja untuk menjaga konten. Hingga saat ini, Facebook memiliki lebih dari 30.000 karyawan di divisi keselamatan dan keamanan. Setengah dari total SDM tersebut berdedikasi untuk mengulas konten dan isu keamanan di platform.
"Kami memastikan kami mampu untuk menemukan konten-konten (yang melanggar) tersebut lebih cepat dan lebih luas lagi, kami ingin memastikan bahwa platform kami ini tidak disalahgunakan," tegasnya.
Secara sistem, Facebook mengklaim bahwa platform-nya kini telah memiliki teknologi yang lebih berintegritas. Dengan begitu, pihak Facebook tidak hanya memblokir konten atau profil pengguna yang melanggar kebijakan namun juga bisa mendeteksi pelanggaran sebelum adanya laporan masuk.
Facebook. Foto: REUTERS/Dado Ruvic
ADVERTISEMENT
Facebook juga melaporkan rincian pemblokiran konten dan profil terlarang dalam periode Juli hingga September 2018. Hampir semua konten yang terdeteksi melanggar diblokir sebelum netizen melaporkannya terlebih dahulu. Berikut daftar total pemblokiran yang dilakukan Facebook.
- 754 juta akun palsu, 99,6 persen diblokir sebelum dilaporkan
- 1.231 juta spam, 99,7 persen dihapus sebelum dilaporkan
- 30,8 juta konten dewasa dan seksual, 96 persen diblokir sebelum dilaporkan
- 15,4 juta konten kejahata, 97 persen dihapus sebelum dilaporkan
- 3 juta propaganda teroris, 99,5 persen teridentifikasi sebelum dilaporkan
- 2,9 juta ujaran kebencian, 52 persen ditandai sebelum dilaporkan
- 2,1 juta konten bullying dan pelecehan, 14,9 persen ditandai sebelum dilaporkan
- 8,7 juta konten pornografi anak dan eksploitasi seksual, 99,2 persen ditandai sebelum dilaporkan
Ilustrasi Facebook Foto: AFP/MLADEN ANTONOV
ADVERTISEMENT
Facebook mengatakan bahwa teknologi mereka sudah jauh lebih baik berkat masukan dari para ahli dan profesional. Namun ia mengatakan bahwa hal itu tidak luput dari pantauan dan kendali dari sumber daya manusia miliknya.
Oleh karena itu, Facebook juga memberikan dukungan bagi pegawainya dari segi pelatihan dan dukungan psikologis. Dengan begitu, mereka bisa terus melakukan audit konten-konten yang melanggar aturan selama 24x7 jam.