Facebook Ciptakan AI yang Bisa Cegah Konflik Warga Grup Facebook
- Arundati Swastika Waranggani
- •
- 18 Jun 2021 11.26 WIB
Platform media sosial Facebook dilaporkan tengah melakukan uji coba terhadap artificial intelligence (AI) atau kecerdasan buatan yang bisa mencegah para pengguna yang menjadi warga grup media sosial tersebut untuk saling bertengkar.
Dasar penciptaan AI ini adalah karena percakapan di dunia maya dianggap sering lepas kendali. Maka penciptaan AI ini pun dilakukan untuk menjaga iklim percakapan dalam Facebook tetap sopan dan kondusif.
Saat ini, Facebook masih menguji penggunaan AI untuk bisa menemukan pertengkaran yang terjadi dalam sejumlah grup, yang kemudian membuat admin grup dapat membantu untuk melakukan peredaman terhadap konflik.
Laporan pengujian AI ini muncul dalam sebuah unggahan blog, tepat saat Facebook meluncurkan sejumlah software baru untuk dapat membantu lebih dari 70 juta orang yang menjalankan dan menjadi moderator grup dalam platform tersebut.
Facebook sendiri merupakan platform media sosial yang memiliki jumlah pengguna yang mencapai 2,85 miliar per bulannya. Pihak Facebook pun merilis bahwa sebanyak lebih dari 1,8 miliar orang berpartisipasi dalam grup setiap bulan, dan terdapat puluhan juta grup yang aktif.
Mengutip dari CNN, AI ini akan memutuskan kapan harus mengirimkan notifikasi terhadap pengelola grup mengenai “peringatan konflik”. Facebook menyampaikan bahwa peringatan tersebut akan dikirim pada admin grup ketika AI menemukan percakapan yang mengandung perdebatan tidak sehat.
Platform media sosial seperti Facebook dan Twitter pun semakin memanfaatkan AI untuk dapat melakukan pemantauan konten, mulai dari mendeteksi dan menghapus ujaran kebencian di Facebook, hingga cuitan yang muncul di Twitter.
Pemanfaatan AI ini kemudian diklaim dapat membantu menggagalkan konten yang tidak ingin dilihat oleh pengguna. AI juga dapat membantu pengguna untuk membersihkan jejaring sosial yang telah tumbuh besar serta terbilamng sulit dipantau oleh manusia.
Namun, AI sendiri juga berisiko gagal untuk dapat memahami konteks pada sebuah unggahan. Cara kerja sistem moderasi yang berbasis AI bisa tampak misterius pula sehingga bisa dianggap merugikan bagi pengguna.
Melansir dari CNN Indonesia, Kamis (17/6/2021) seorang juru bicara dari Facebook menyatakan bahwa AI perusahaan akan menggunakan beberapa sinyal dari percakapan untuk dapat menentukan kapan peringatan konflik akan dikirim, termasuk juga waktu balasan komentar dan volume komentar pada sebuah unggahan.
Pihak Facebook juga mengatakan bahwa beberapa admin grup sudah menyiapkan kata kunci untuk peringatan agar dapat dengan mudah menemukan topik yang memiliki potensi menimbulkan konflik dalam grup.
Ketika admin grup menerima peringatan konflik, maka mereka kemungkinan akan mengambil tindakan yang menurut facebook ditujukan untuk dapat meredam percakapan. Hal ini dilakukan dengan harapan dapat menenangkan pengguna.
Mengutip The Verge, nantinya dengan bantuan AI ini admin grup bisa melakukan pembatasan terhadap anggota untuk mengomentari unggahan dalam grup, sejumlah lima komentar dalam sehari.