Karyawan Facebook Menemukan Cara Sederhana Untuk Mengatasi Misinformasi. Mereka ‘Memprioritaskannya’ Setelah Bertemu dengan Mark Zuckerberg, Dokumen Menunjukkan


Pada Mei 2019, sebuah video yang dimaksudkan untuk menunjukkan Ketua DPR Nancy Pelosi mabuk, mengumpat kata-katanya saat dia memberikan pidato di sebuah acara publik, menjadi viral di Facebook. Pada kenyataannya, seseorang telah memperlambat rekaman hingga 75% dari kecepatan aslinya.

Di satu halaman Facebook saja, video yang dipalsukan itu telah ditonton lebih dari 3 juta kali dan dibagikan 48.000 kali. Dalam beberapa jam, itu telah diunggah ulang ke halaman dan grup yang berbeda, dan menyebar ke platform media sosial lainnya. Dalam ribuan komentar Facebook di halaman pro-Trump dan sayap kanan yang membagikan video tersebut, pengguna menyebut Pelosi “gila”, “kacau” dan “memalukan.”
[time-brightcove not-tgx=”true”]

Dua hari setelah video pertama kali diunggah, dan setelah panggilan marah dari tim Pelosi, CEO Facebook Mark Zuckerberg membuat keputusan terakhir: video tersebut tidak melanggar aturan situsnya terhadap disinformasi atau deepfake, dan oleh karena itu tidak akan dihapus. Pada saat itu, Facebook mengatakan akan menurunkan video di umpan orang.

Di dalam Facebook, karyawan segera menemukan bahwa halaman yang membagikan video Pelosi adalah contoh utama dari jenis manipulasi platform yang memungkinkan kesalahan informasi menyebar tanpa terkendali. Halaman tersebut—dan lainnya seperti itu—telah membangun audiens yang besar bukan dengan memposting konten asli, tetapi dengan mengambil konten dari sumber lain di seluruh web yang telah menjadi viral. Setelah audiens ditetapkan, halaman jahat sering kali berputar untuk memposting informasi yang salah atau penipuan keuangan kepada banyak pemirsa mereka. Taktiknya mirip dengan bagaimana Internet Research Agency (IRA), peternakan troll Rusia yang ikut campur dalam pemilihan AS 2016, menyebarkan disinformasi kepada pengguna Facebook Amerika. Karyawan Facebook memberi nama taktik itu: “viralitas buatan.” Beberapa percaya itu adalah masalah besar karena halaman menyumbang 64% dari tampilan informasi yang salah terkait halaman tetapi hanya 19% dari total tampilan terkait halaman.

Pada bulan April 2020, sebuah tim di Facebook yang mengerjakan “tindakan lunak”—solusi yang berhenti menghapus konten bermasalah—menghadirkan Zuckerberg dengan rencana untuk mengurangi jangkauan halaman yang mengejar “viralitas buatan” sebagai taktik. Rencananya akan menurunkan peringkat halaman ini, sehingga kecil kemungkinan pengguna akan melihat postingan mereka di Kabar Beranda. Itu akan berdampak pada halaman yang membagikan video palsu Pelosi, yang secara khusus ditunjukkan oleh karyawan dalam presentasi mereka kepada Zuckerberg. Mereka juga menyarankan itu dapat secara signifikan mengurangi informasi yang salah yang diposting oleh halaman di platform.

Tetapi sebagai tanggapan atas umpan balik yang diberikan oleh Zuckerberg selama pertemuan tersebut, para karyawan “mengurangi prioritas” pekerjaan itu untuk fokus pada proyek-proyek dengan “dampak integritas yang lebih jelas,” dokumen internal perusahaan menunjukkan.

Cerita ini sebagian didasarkan pada pengungkapan pelapor Frances Haugen kepada Komisi Sekuritas dan Bursa AS (SEC), yang juga diberikan kepada Kongres dalam bentuk yang telah disunting oleh tim hukumnya. Versi yang disunting dilihat oleh konsorsium organisasi berita, termasuk TIME. Banyak dokumen pertama kali dilaporkan oleh Jurnal Wall Street. Mereka melukiskan gambaran perusahaan yang terobsesi untuk meningkatkan keterlibatan pengguna, bahkan ketika upayanya untuk melakukannya mendorong konten yang memecah belah, marah, dan sensasional. Mereka juga menunjukkan bagaimana perusahaan sering menutup mata terhadap peringatan dari penelitinya sendiri tentang bagaimana hal itu berkontribusi terhadap kerusakan sosial.

Promosi untuk Zuckerberg dengan beberapa kelemahan yang terlihat

Viralitas yang dibuat-buat adalah taktik yang sering digunakan oleh aktor jahat untuk mempermainkan platform, menurut Jeff Allen, salah satu pendiri Institut Integritas dan mantan ilmuwan data Facebook yang bekerja erat dalam pembuatan viralitas sebelum ia meninggalkan perusahaan pada 2019. Ini termasuk berbagai kelompok, dari remaja di Makedonia yang menemukan bahwa menargetkan pemirsa AS yang hiper-partisan pada tahun 2016 adalah bisnis yang menguntungkan, hingga pengaruh terselubung operasi oleh pemerintah asing termasuk Kremlin. “Menggabungkan konten yang sebelumnya menjadi viral adalah strategi yang digunakan semua jenis aktor jahat untuk membangun audiens yang besar di platform,” kata Allen kepada TIME. “IRA melakukannya, peternakan troll bermotivasi finansial di Balkan melakukannya, dan itu bukan hanya masalah AS. Ini adalah taktik yang digunakan di seluruh dunia oleh aktor yang ingin menargetkan berbagai komunitas untuk keuntungan finansial atau politik mereka sendiri.”

Baca lebih lajut: Mengapa Beberapa Orang Melihat Konten yang Lebih Mengganggu di Facebook Daripada Yang Lain, Menurut Dokumen yang Dibocorkan

Dalam pertemuan April 2020, karyawan Facebook yang bekerja di divisi “integritas” platform, yang berfokus pada keamanan, mempresentasikan sejumlah saran kepada Zuckerberg tentang cara mengurangi viralitas konten berbahaya di platform. Beberapa saran—berjudul “Ide besar untuk mengurangi prevalensi konten buruk”—telah diluncurkan; beberapa masih menjadi subjek eksperimen yang dijalankan di platform oleh para peneliti Facebook. Lainnya — termasuk menangani “viralitas buatan” —adalah konsep awal yang diminta oleh karyawan untuk dijelajahi oleh Zuckerberg secara lebih rinci.

Karyawan mencatat bahwa banyak konten “viralitas buatan” sudah melanggar aturan Facebook. Masalahnya, kata mereka, perusahaan tidak konsisten menerapkan aturan tersebut. “Kami sudah memiliki kebijakan terhadap halaman yang [pursue manufactured virality],” mereka menulis. “Tetapi [we] tidak secara konsisten menerapkan kebijakan ini hari ini.”

Presentasi karyawan mengatakan bahwa penelitian lebih lanjut diperlukan untuk menentukan “dampak integritas” dari mengambil tindakan terhadap viralitas buatan. Tetapi mereka menunjukkan bahwa taktik tersebut secara tidak proporsional berkontribusi pada masalah informasi yang salah platform. Mereka telah mengumpulkan statistik yang menunjukkan bahwa hampir dua pertiga dari kesalahan informasi terkait halaman berasal dari halaman “viralitas buatan”, dibandingkan dengan kurang dari seperlima dari total tampilan terkait halaman.

Bertindak melawan “viralitas buatan” akan membawa sedikit risiko bisnis, tambah karyawan tersebut. Melakukan hal itu tidak akan mengurangi berapa kali pengguna masuk ke Facebook per hari, atau jumlah “suka” yang mereka berikan ke konten lain, catat presentasi tersebut. Tindakan keras terhadap konten semacam itu juga tidak akan berdampak pada kebebasan berbicara, kata presentasi itu, karena hanya pembagian ulang konten yang tidak orisinal—bukan ucapan—yang akan terpengaruh.

Tapi Zuckerberg tampaknya mencegah penelitian lebih lanjut. Setelah menyampaikan saran tersebut kepada CEO, karyawan memposting akun pertemuan tersebut di forum karyawan internal Facebook, Workplace. Dalam posting tersebut, mereka mengatakan bahwa berdasarkan umpan balik Zuckerberg, mereka sekarang akan “mengurangi prioritas” rencana untuk mengurangi viralitas yang diproduksi, “mendukung proyek yang memiliki dampak integritas yang lebih jelas.” Zuckerberg menyetujui beberapa saran lain yang disampaikan tim dalam pertemuan yang sama, termasuk “penurunan pangkat yang dipersonalisasi,” atau menurunkan konten untuk pengguna berdasarkan umpan balik mereka.

Andy Stone, juru bicara Facebook, menolak saran bahwa karyawan tidak disarankan untuk meneliti viralitas buatan. “Para peneliti mengejar ini dan, sementara hasil awal tidak menunjukkan dampak yang signifikan, mereka bebas untuk terus mengeksplorasinya,” tulis Stone dalam sebuah pernyataan kepada TIME. Dia mengatakan perusahaan telah memberikan kontribusi sumber daya yang signifikan untuk mengurangi konten yang buruk, termasuk down-ranking. “Dokumen kerja dari tahun lalu ini menunjukkan upaya kami untuk memahami masalah ini dan tidak mencerminkan solusi produk dan kebijakan yang telah kami terapkan sejak itu,” tulisnya. “Kami baru-baru ini menerbitkan Pedoman Distribusi Konten yang menjelaskan jenis konten yang distribusinya kami kurangi di Kabar Beranda. Dan kami telah menghabiskan waktu bertahun-tahun untuk membentuk tim, mengembangkan kebijakan, dan berkolaborasi dengan rekan industri untuk mengganggu upaya terkoordinasi oleh kelompok tidak autentik asing dan domestik untuk menyalahgunakan platform kami.”

Tetapi bahkan hari ini, halaman yang membagikan konten viral yang tidak orisinal untuk meningkatkan keterlibatan dan mengarahkan lalu lintas ke situs web yang dipertanyakan adalah tetap beberapa yang paling populer di seluruh platform, menurut sebuah laporan yang dirilis oleh Facebook pada bulan Agustus.

Allen, mantan ilmuwan data Facebook, mengatakan Facebook dan platform lain harus difokuskan untuk mengatasi viralitas buatan, karena ini adalah cara ampuh untuk membuat platform lebih tahan terhadap penyalahgunaan. “Platform perlu memastikan bahwa membangun audiens yang besar dalam komunitas harus membutuhkan kerja yang tulus dan memberikan nilai asli bagi komunitas,” katanya. “Platform membuat mereka sendiri rentan dan dapat dieksploitasi oleh aktor jahat di seluruh dunia jika mereka memungkinkan audiens yang besar dibangun oleh praktik pengikisan dan pengeposan ulang konten yang sebelumnya menjadi viral.”

Baca lebih lajut: Mengapa Bekerja di Facebook Seperti Bermain Catur dengan Alien, Menurut Dokumen yang Dibocorkan

Dokumen internal Facebook menunjukkan bahwa beberapa peneliti mencatat bahwa menindak “viralitas buatan” dapat mengurangi Interaksi Sosial yang Berarti (MSI)—statistik yang mulai digunakan Facebook pada tahun 2018 untuk membantu memberi peringkat pada Kabar Berandanya. Perubahan algoritme dimaksudkan untuk menunjukkan kepada pengguna lebih banyak konten dari teman dan keluarga mereka, dan lebih sedikit dari politisi dan outlet berita. Namun analisis internal dari tahun 2018 berjudul “Apakah Facebook menghargai kemarahan” melaporkan bahwa semakin banyak komentar negatif yang muncul di postingan Facebook—konten seperti video Pelosi yang diubah—semakin besar kemungkinan tautan dalam postingan tersebut diklik oleh pengguna. “Mekanik platform kami tidak netral,” tulis seorang karyawan Facebook saat itu. Karena konten dengan lebih banyak keterlibatan ditempatkan lebih tinggi di umpan pengguna, itu menciptakan lingkaran umpan balik yang memberi insentif pada pos yang paling banyak menimbulkan kemarahan. “Kemarahan dan kebencian adalah cara termudah untuk tumbuh di Facebook,” kata Haugen kepada Parlemen Inggris pada 25 Oktober.

Bagaimana “viralitas buatan” menyebabkan masalah di Washington

Keputusan Zuckerberg pada Mei 2019 untuk tidak menghapus video Pelosi yang dipalsukan tampaknya menandai titik balik bagi banyak anggota parlemen Demokrat yang muak dengan kegagalan perusahaan yang lebih besar untuk membendung informasi yang salah. Pada saat itu, ia memimpin Pelosi—salah satu anggota Kongres yang paling berkuasa, yang mewakili negara bagian California—untuk memberikan teguran yang luar biasa pedas. Dia mengecam Facebook sebagai “pemungkin yang bersedia” untuk disinformasi dan campur tangan politik, sebuah kritik yang semakin digaungkan oleh banyak anggota parlemen lainnya. Facebook membela keputusannya, mengatakan bahwa mereka telah “secara dramatis mengurangi distribusi konten itu” segera setelah mitra pemeriksa fakta menandai video tersebut sebagai informasi yang salah.

Kantor Pelosi tidak menanggapi permintaan TIME untuk mengomentari cerita ini.

Keadaan di sekitar video Pelosi menunjukkan bagaimana janji Facebook untuk menunjukkan disinformasi politik kepada lebih sedikit pengguna hanya setelah pemeriksa fakta pihak ketiga menandainya sebagai menyesatkan atau dimanipulasi—sebuah proses yang bisa memakan waktu berjam-jam atau bahkan berhari-hari—tidak banyak menghentikan konten ini dari pergi viral segera setelah diposting.

Menjelang pemilihan 2020, setelah Zuckerberg melarang karyawannya menangani viralitas buatan, situs hiper-partisan menggunakan taktik tersebut sebagai formula kemenangan untuk mendorong keterlibatan ke halaman mereka. Pada Agustus 2020, yang lain video yang diolah palsu mengklaim menunjukkan Pelosi mabuk lagi menjadi viral. Halaman Facebook Pro-Trump dan sayap kanan membagikan ribuan posting serupa, dari video yang dipalsukan yang dimaksudkan untuk membuat kandidat Joe Biden tampak tersesat atau bingung saat berbicara di acara-acara, hingga video yang diedit yang mengklaim menunjukkan penipuan pemilih.

Setelah pemilu, jaringan halaman yang sama yang telah membangun jutaan pengikut di antara mereka menggunakan taktik viralitas buatan menggunakan jangkauan yang mereka bangun untuk menyebarkan kebohongan bahwa pemilu telah dicuri.



Sumber Berita

Pos terkait