COVID-19 dan krisis dalam platform digital

Gambar : Mozilla, digunakan dengan ijin

Artikel berikut merupakan kolaborasi penulis tamu Solana Larsen, editor pada Internet Health Report di Mozilla dan Leil Zahra, Mozilla Fellow yang ditempatkan di WITNESS.

Setelah orang-orang di seluruh dunia kini sedang berlindung dari pandemi COVID-19, internet menjadi salah satu hal menjadi lebih penting, dibandingkan saat-saat sebelumnya. Jutaan orang kini terkoneksi secara daring untuk berbagai keperluan : kerja, berbagi perasaan, belajar dan bermain.

Dengan kata lain, pandemi ini telah menunjukan bahwa internet memiliki potensi bagi masyarakat luas. Tapi pandemi ini pula yang mengungkapakan hal-hal tidak sehat terkait dengan internet : orang-orang yang tidak memiliki akses internet kini menjadi pihak yang makin dirugikan. Dan diabaikannya privasi serta keamanan konsumen terkait teknologi semakin masif, membuat semakin banyak orang yang berada dalam posisi rentan.

Salah satu isu yang meresahkan saat pandemi, yang berhasil terangkat ke permukaan adalah moderasi konten dalam dunda maya yang tidak berjalan semestinya. Hal ini diperparah oleh perusahaan platform skala besar dalam mengatasi ujaran kebencian di dunia maya, disinformasi dan konten ilegal. Biarpun banyak kemajuan yang dicapai, Facebook, YouTube dan platform lainnya seringkali memoderasi konten dengan cara yang tidak konsisten, bahkan beresiko: konten yang berbahaya dibiarkan begitu saja, dan konten yang berguna ditarik secara tidak adil. Keputusan ini merugikan dan berpengaruh pada orang-orang yang berasal dari negara berkembang di dunia bagian Selatan, dan yang menggunakan bahasa yang tidak banyak digunakan.

Saat kini, kita berada pada satu titik penentuan. Akankah konten moderasi yang banyak memiliki kelemahan ini akan terus dibiarkan? Atau krisis ini akan dijadikan saat refleksi positif tentang bagaimana berkomunikasi di dunia maya, di masa kini dan masa datang?

Salah satu masalah yang paling mengganjal dalam moderasi konten adalah siapa – atau – apa yang melakukan moderasi. Adanya misinformasi terkait pandemi membanjiri platform dan banyak konten moderator yang sungguh dikerjakan oleh manusia kerepotan dibuatnya. Akhirnya banyak platform mengaktifkan kecerdasan buatan. Jelas ada keterbatasan dalam pedekatan dan prosesnya. Filter otomatis telah gagal meredam penyebaran misinformasi terkait COVID-19, yang menyebar begitu cepat dan membahayakan kesehatan masyarakat. Platform dibanjiri dengan artikel tentang pemutih pakaian yang bisa menyembuhkan virus atau teknologi 5G yang bisa menyebarkan penyakit.

Selain misinformasi yang terlewatkan, moderasi otomatis juga turut menyensor konten yang berkualitas. Pengguna internet mengajukan pertanyaan dasar atau berbicara dengan konteks atau bahasa lokal, dapat disalahartikan sebagai konten yang bermasalah. Di tengah pandemi, moderasi otomatis yang dilakukan oleh Facebook telah menyebakan banyak artikel berkualitas, termasuk tentang COVID-19, dilarang tayang secara paksa. Pada bulan Maret, Facebook mengklaim adanya ‘masalah’ teknis terkait hal ini dan telah mengembalikan konten yang dihapus. Akan tetapi, episode ini telah menimbulkan pertanyaan efisiensi sebuah sistem, dan lebih jauh lagi, pertanyaan tentang transparansi Facebook. Ketika YouTube mengumumkan akan memperketat filter otomatis karena COVID-19 pada bulan Maret, tertulis, “Karena hal ini, pengguna dan kreator akan melihat meningkatnya video yang dihapus, biarpun tampak tidak menyalahi aturan.” Masih terkait yang hal sama, Twitter menjelaskan  bahwa moderator otomatis “terkadang dalam konteks tertentu dan karena keterbatasan kemampuan menilai, tim kami bisa saja melakukan kesalahan.”

Hal ini tidak sejalan ketika satu konten secara sepihak ditarik atau ada akun yang ditangguhkan, proses bandingnya ternyata lama dan tidak jelas. Dalam banyak kasus, pengguna tidak mengerti alasan dibalik penghapusan konten dan penangguhan satu akun. Bahkan sebelum pandemi, konteks terkait masalah ini telah menjadi bahan diskusi utama seputar moderasi konten. Misalnya, masalah bahasa yang diterima masih terpusat pada Amerika, padahal aturan yang dipakai harus lebih berlaku secara internasional.

Teknologi yang tidak sempurna merupakan satu masalah dalam moderasi konten, kebijakan yang tidak berimbang adalah masalah lain yang membayangi moderasi konten. Di Amerika Serikat dan beberapa negara Eroga, perusahaan platform teknologi besar harus berhati-hati terkait aturan hukum lokal dan dalam menerapkan kebijakan internal. Tapi hal tersebut tidak begitu saja terjadi di negara lain. Pada pemilu Nigeria than 2018, peneliti dan kontributor Global Voices Rosemary Ajayi dan beberapa orang rekan mengumpulkan ratusan cuitan yang menyebarkan disinforamsi dan mengalami tanggapan yang tidak terduga dan inkonsistensi ketika melaporkan masalahini. “Jika Anda melaporkan sesuatu yang serius di hari H pemilu, dan mereka baru menanggapinya seminggu kemudian, lantas apa gunanya,” jelas Ajayi, Pemikiran ini sama menakutkannya dalam konteks saat ini : jika platform menghapus konten misinformasi terkait COVID-19 setelah jutaan orang melihatnya, maka ada dampak buruk yang sudah terjadi.

Hal diatas merupakan sedikit dari sejumlah masalah, yang sudah cukup lama terjadi, terkait moderasi konten. Dalam survei terkini tentang sosial media yang dilakukan oleh Mozilla, kami menemukan masalah lainnya. Kami menemui SIN,  organisasi nirlaba asal Polandia yang menangani pengurangan bahaya narkoba, yang lamannya ditangguhkan oleh Facebook dan tidak dapat mengajukan peninjauan. Dan kami juga menemui Syrian Archive kelompok riset terkait hak asasi manusia, yang mengungkapkan bahwa berbagai platform online juga sering kali menghapus bukti terkait kejahatan perang. Tidak sulit untuk membayangkan bahwa hal tersebut juga akan terjadi selama masa pandemi. Bagaimana jika informasi kesehatan yang kritis tiba-tiba menghilang atua bukti yang terkait pelanggaran HAM selama karantina tidak sengaja dihapus?

Tidak satu penyelesaian yang bisa mengatasi semua. Tapi transparansi yang lebih jelas, tentang apa saja konten yang akan dihapus, kapan serta alasannya, juga sejauh mana konten yang dihapus dapat dikembalikan setelah proses banding. Semua ini akan membantu para peneliti dan komunitas yang terdampak untuk mengerti tentang kebijakan platform lebih baik. Laporan transparansi dari beberapa platform besar memang menjadi lebih lengkap dan detil; kita harus berterima kasih kepada tekanan yang terus menerus dilakukan oleh kelompok masyarakat madani, termasuk ditandatanganinya Santa Clara Principles. Inisiatif komunitas ini diluncurkan pada tahun 2018, dan beberapa platform sudah merekomendasikannya. Pada Maret 2020, setelah melihat bahwa peraturan tersebut akan bermanfaat jika diperbaharui, Electronic Frontier Foundation (EFF) berinisiatif untuk membuat sebuah proposal global (dengan tengat pada 30 Juni 2020) untuk membahas cara mengakomodasi kebutuhan pihak-pihak marjinal, yang banyak terdampak oleh moderasi konten ini.

Banyak hal tentang moderasi yang tidak diketahui dan juga pola banding yang berbeda, tergantung situasi dan konteks yang melatarinya, sehingga ada anekdot bahwa bukti dari pengguna yang terdampak bisa menjadi sumber yang berharga. Silence.online merupakan salah satu perangkat yang dibuat oleh kelompok akar rumput secara urun daya dan menjadi tempat untuk mendiskusikan pengalaman konten yang dihapus secara tidak adil dari berbagai negara. Inisiatif ini bertujuan untuk menciptakan sebuah jejaring organisasi atau individu yang memang bergerak  atau hendak memulai bekerja di bidang moderasi dan penghapusan konten.

Kelompok lain pun setuju bahwa hal ini adalah sesuatu yang penting bagi masyarakat madani dan peneliti untuk terlibat dalam mempertanyakan moderasi dan regulasi konten. Skandal dan krisis memiliki kecenderungan untuk melahirnya aturan dan regulasi baru, atau tuntutan untuk otomatisasi yang lebih canggih, yang tidak selalu berdasarkan analisa independen tentang apa yang sebenarnya terjadi. Pendakatan baru untuk menciptakan akuntabilitas dan mekanisme banding, seperti Oversight Board yang baru dibentuk oleh Facebook, memerlukan pengawasan dari publik.

Seperti yang telah dijelaskan di atas, pandemi COVID-19 mengungkapkan kelemahan moderasi konten dan sedang dalam perbaikan yang cukup nyata, biarpun masih ada masalah lama yang tidak terselesaikan, bukan hanya terkait berita kesehatan dan disinformasi. Mereka melakukan perubahan dalam operasional harian, juga bagaimana menjaganya agar tetap akuntabel. Perhatian yang terpusat dan terfokus pada satu isu merupakan katalis yang baik. Hal tersebut dapat memicu proses agar lebih transparan, teknologi yang lebih humanis, aturan yang lebih baik dan internet yang lebih sehat.

Mulai Percakapan

Relawan, harap log masuk »

Petunjuk Baku

  • Seluruh komen terlebih dahulu ditelaah. Mohon tidak mengirim komentar lebih dari satu kali untuk menghindari diblok sebagai spam.
  • Harap hormati pengguna lain. Komentar yang tidak menunjukan tenggang rasa, menyinggung isu SARA, maupun dimaksudkan untuk menyerang pengguna lain akan ditolak.