Suara.com - Facebook akhirnya mengakui bahwa teknologi kecerdasan buatan (artificial inteligent atau AI) yang diandalkannya untuk mendeteksi konten negatif sudah gagal dalam peristiwa beredarnya video serangan teroris di dua masjid Christchurch, Selandia Baru.
Wakil Presiden Facebook bidang Integritas, Guy Rosen, mengatakan bahwa video penembakan jemaah masjid di Christchurch yang menewaskan 50 orang itu "tidak memicu sistem pendeteksi otomatis" Facebook.
Seperti yang diwartakan sebelumnya teroris kulit putih di Selandia Baru menyerang dua masjid pada Jumat (15/3/2019). Dalam perisitiwa itu pelaku mereka dan menyiarkan aksinya secara live di Facebook.
Facebook pekan ini mengakui bahwa video live itu disaksikan kurang dari 200 orang. Tetapi video itu diunduh dan kemudian disebar lagi orang oknum-oknum di berbagai media sosial.
Baca Juga: Bos Air Asia Tutup Akun Facebook Gara-gara Penembakan Masjid Selandia Baru
Facebook sendiri telah menghapus 1,5 juta salinan video itu, yang 1,2 jutanya dihapus saat akan diunggah. Tetapi ada 300.000 video yang sempat diunggah dan tayang di Facebook.
Salah satu alasan mengapa sistem yang dibangga-banggakan Facebook gagal adalah karena komputer dilatih menggunakan konten-konten yang mirip. Sementara peristiwa di Selandia Baru sangat jarang terjadi.
Masalah lain, jelas Rosen dalam blog resmi Facebook, adalah AI belum bisa membedakan video pembantaian tersebut dengan video-video game first-person shooter (FPS) seperti PUBG, Counter Strike, atau Call of Duty.
Facebook juga menyalahkan penggunanya yang disebutnya tak langsung melaporkan ketika menyaksikan video live tersebut. Laporan baru muncul sekitar 30 menit video live berdurasi 17 menit itu mulai ditayangkan. [Stuff.co.nz]
Baca Juga: Kegagalan Facebook di Balik Viralnya Video Penembakan Masjid Selandia Baru