Facebook memutakhirkan AI-nya untuk menangani informasi informasi COVID-19 dan kebencian yang lebih baik

Facebook memutakhirkan AI-nya untuk menangani informasi informasi COVID-19 dan kebencian yang lebih baik

Facebook memutakhirkan AI-nya untuk menangani informasi informasi COVID-19 dan kebencian yang lebih baik

 

Facebook memutakhirkan AI-nya untuk menangani informasi informasi COVID-19 dan kebencian yang lebih baik
Facebook memutakhirkan AI-nya untuk menangani informasi informasi COVID-19 dan kebencian yang lebih baik

Facebook Alat AI adalah satu-satunya hal yang berdiri di antara para penggunanya dan serangan kebencian yang semakin meningkat dan kesalahan informasi yang dialami platform. Para peneliti perusahaan telah mengembangkan beberapa kemampuan baru untuk sistem yang menjaga musuh tetap di tempat, mengidentifikasi informasi yang salah terkait COVID-19 dan pidato kebencian yang disamarkan sebagai meme.

Mendeteksi dan menghapus informasi yang salah terkait dengan virus jelas merupakan prioritas saat ini, seperti Facebook dan media sosial lainnya menjadi tempat berkembang biak tidak hanya untuk spekulasi dan diskusi biasa, tetapi campur tangan jahat oleh kampanye terorganisir yang bertujuan untuk menebarkan perselisihan dan menyebarkan pseudosains.

“Kami telah melihat perubahan besar dalam perilaku di seluruh situs karena COVID-19, peningkatan besar informasi yang salah yang kami anggap berbahaya,” kata CTO Facebook Mike Schroepfer dalam panggilan dengan pers sebelumnya hari ini.

Perusahaan ini melakukan kontrak dengan lusinan organisasi pengecekan fakta di seluruh dunia, tetapi – mengesampingkan pertanyaan tentang seberapa efektif kolaborasi itu – informasi yang salah memiliki cara cepat bermutasi, membuat bahkan menghapus satu gambar tunggal atau mengaitkan masalah yang rumit.

Lihatlah tiga contoh gambar di bawah ini, misalnya:Dalam beberapa hal mereka hampir identik, dengan gambar latar belakang yang sama, warna, jenis huruf dan sebagainya. Tetapi yang kedua sedikit berbeda – ini adalah jenis hal yang mungkin Anda lihat ketika seseorang mengambil tangkapan layar dan membagikannya daripada yang asli. Yang ketiga secara visual sama tetapi kata-katanya memiliki arti yang berlawanan.

Algoritma visi komputer yang tidak canggih akan menilai ini sebagai gambar yang sama sekali berbeda karena perubahan kecil (mereka menghasilkan hash yang berbeda) atau semua sama karena kesamaan visual yang luar biasa. Tentu saja kami melihat perbedaannya segera, tetapi melatih algoritme untuk melakukannya dengan andal sangat sulit. Dan cara hal menyebar di Facebook, Anda mungkin berakhir dengan ribuan variasi daripada beberapa.

“Apa yang kami ingin dapat lakukan adalah mendeteksi hal-hal itu sebagai identik karena mereka, untuk seseorang, hal yang sama,” kata Schroepfer. “Sistem kami sebelumnya sangat akurat, tetapi mereka sangat rapuh dan rapuh bahkan untuk perubahan yang sangat kecil. Jika Anda mengubah sejumlah kecil piksel, kami terlalu gugup karena berbeda, sehingga kami akan menandainya berbeda dan tidak menghapusnya. Apa yang kami lakukan di sini selama dua setengah tahun terakhir adalah membangun detektor kesamaan berbasis jaringan syaraf yang memungkinkan kami menangkap variasi varian yang lebih luas lagi dengan akurasi yang sangat tinggi. ”

Untungnya menganalisis gambar pada skala tersebut adalah spesialisasi Facebook. Infrastrukturnya ada untuk membandingkan foto dan mencari fitur seperti wajah dan hal-hal yang kurang diinginkan; hanya perlu diajarkan apa yang harus dicari. Hasilnya – dari tahun kerja, harus dikatakan – adalah SimSearchNet , sebuah sistem yang didedikasikan untuk menemukan dan menganalisis duplikat-hampir dari gambar yang diberikan dengan pemeriksaan dekat dari fitur mereka yang paling menonjol (yang mungkin tidak sama sekali apa yang Anda atau saya akan memperhatikan).

SimSearchNet saat ini memeriksa setiap gambar yang diunggah ke Instagram dan Facebook – miliaran per hari.

Sistem ini juga memantau Facebook Marketplace, di mana orang yang mencoba untuk melanggar aturan akan mengunggah gambar yang sama dari barang yang akan dijual (misalnya, masker wajah N95) tetapi sedikit diedit untuk menghindari ditandai oleh sistem yang tidak diizinkan. Dengan sistem yang baru, kesamaan antara foto-foto yang telah diubah atau diedit dicatat dan penjualan dihentikan.

Meme penuh kebencian dan sigung yang mendua
Masalah lain yang dihadapi Facebook adalah pidato kebencian – dan ucapan kebencian saudara kandungnya yang lebih longgar . Namun, satu area yang terbukti sangat sulit untuk sistem otomatis adalah meme .

Masalahnya adalah bahwa makna dari posting ini sering dihasilkan dari interaksi antara gambar dan teks. Kata-kata yang akan sangat sesuai atau ambigu sendiri memiliki arti diklarifikasi oleh gambar yang muncul. Tidak hanya itu, tetapi ada banyak variasi dalam gambar atau frasa yang dapat mengubah (atau tidak mengubah) makna yang dihasilkan secara halus. Lihat di bawah:

Untuk lebih jelasnya, ini adalah “meme yang kejam”, bukan jenis meme yang benar-benar penuh kebencian yang sering ditemukan di Facebook.

Setiap potongan puzzle baik-baik saja dalam beberapa konteks, menghina yang lain. Bagaimana sistem pembelajaran mesin belajar untuk mengatakan apa yang baik dan apa yang buruk? Ini “pidato kebencian multimoda” adalah masalah non-sepele karena cara AI bekerja. Kami telah membangun sistem untuk memahami bahasa, dan untuk mengklasifikasikan gambar, tetapi bagaimana kedua hal itu berhubungan bukanlah masalah yang sederhana.

Peneliti Facebook mencatat bahwa ada “sangat sedikit” penelitian tentang topik tersebut, sehingga penelitian mereka lebih merupakan misi eksplorasi daripada solusi. Teknik mereka tiba memiliki beberapa langkah. Pertama, mereka membuat manusia membubuhi keterangan banyak koleksi gambar tipe meme sebagai kebencian atau tidak, menciptakan kumpulan data Meme Hateful. Selanjutnya, sistem pembelajaran mesin dilatih pada data ini, tetapi dengan perbedaan penting dari yang ada.

Hampir semua algoritma analisis gambar seperti itu, ketika disajikan dengan teks dan gambar pada saat yang sama, akan mengklasifikasikan yang satu, lalu yang lain, kemudian mencoba menghubungkan keduanya. Tetapi itu memiliki kelemahan yang disebutkan di atas bahwa, terlepas dari konteks, teks dan gambar-gambar meme yang penuh kebencian mungkin sama sekali tidak berbahaya.

Sistem Facebook menggabungkan informasi dari teks dan gambar sebelumnya dalam pipa, dalam apa yang disebutnya “fusi awal,” untuk membedakannya dari pendekatan “fusi terlambat” tradisional. Ini lebih mirip dengan bagaimana orang melakukannya – melihat semua komponen dari suatu media sebelum mengevaluasi makna atau nadanya.

Saat ini algoritma yang dihasilkan belum siap untuk digunakan secara luas – sekitar 65-70% akurasi keseluruhan,

meskipun Schroepfer mengingatkan bahwa tim menggunakan “masalah tersulit dari masalah sulit” untuk mengevaluasi kemanjuran. Beberapa ujaran kebencian multimodal akan dianggap sepele untuk ditandai, sementara beberapa sulit bahkan untuk diukur manusia.

Untuk membantu memajukan seni, Facebook menjalankan “Hateful Memes Challenge” sebagai bagian dari konferensi NeurIPS AI akhir tahun ini; ini biasanya dilakukan dengan tugas-tugas pembelajaran mesin yang sulit, karena masalah baru seperti ini seperti catnip untuk peneliti.

Peran AI yang berubah dalam kebijakan Facebook
Facebook mengumumkan rencananya untuk mengandalkan AI lebih banyak untuk moderasi pada hari-hari awal krisis COVID-19. Dalam sebuah panggilan pers di bulan Maret, Mark Zuckerberg mengatakan bahwa perusahaan mengharapkan lebih banyak “false positive” – ​​contoh konten yang ditandai ketika tidak seharusnya – dengan armada perusahaan dengan 15.000 kontraktor moderasi di rumah dengan cuti berbayar.

YouTube dan Twitter juga menggeser lebih banyak moderasi konten mereka ke AI pada waktu yang sama, mengeluarkan peringatan serupa tentang bagaimana peningkatan ketergantungan pada moderasi otomatis dapat menyebabkan konten yang tidak benar-benar melanggar aturan platform yang ditandai dengan keliru.

Terlepas dari upaya AI-nya, Facebook telah bersemangat untuk mendapatkan pengulas konten manusia kembali di kantor. Pada pertengahan April, Zuckerberg memberikan batas waktu kapan karyawan dapat diharapkan untuk kembali ke kantor, mencatat bahwa peninjau konten berada di daftar “karyawan kritis” Facebook yang ditandai untuk pengembalian paling awal .

Sementara Facebook memperingatkan bahwa sistem AI-nya mungkin menghapus konten terlalu agresif, ucapan

kebencian, ancaman kekerasan dan informasi yang salah terus berkembang pada platform saat krisis coronavirus terus berlanjut. Facebook baru-baru ini mendapat kecaman karena menyebarkan video viral yang membuat orang-orang enggan memakai masker wajah atau mencari vaksin begitu tersedia – suatu pelanggaran yang jelas terhadap aturan platform terhadap kesalahan informasi kesehatan.

Video itu, kutipan dari film dokumenter pseudo yang akan datang berjudul “Plandemic,” awalnya lepas landas di YouTube, tetapi para peneliti menemukan bahwa ekosistem kelompok konspirasis Facebook yang berkembang luas membagikannya secara luas pada platform, menyuntikkannya ke dalam wacana online utama. Video berdurasi 26 menit, dibumbui dengan konspirasi, juga merupakan contoh sempurna dari jenis konten yang sulit dipahami oleh algoritma.

Pada hari Selasa, Facebook juga merilis laporan penegakan standar komunitas yang merinci upaya moderasinya di seluruh kategori seperti terorisme, pelecehan dan pidato kebencian. Sementara hasilnya hanya mencakup rentang satu bulan selama pandemi, kita dapat berharap untuk melihat lebih banyak dampak pergeseran Facebook ke moderasi AI di waktu mendatang.

Dalam sebuah panggilan tentang upaya moderasi perusahaan, Zuckerberg mencatat bahwa pandemi telah membuat

“bagian ulasan manusia” dari moderasinya menjadi lebih sulit, karena kekhawatiran tentang melindungi privasi pengguna dan kesehatan mental pekerja membuat pekerjaan jarak jauh menjadi tantangan bagi pengulas, tetapi salah satunya adalah perusahaan sedang menavigasi sekarang. Facebook dikonfirmasi ke TechCrunchbahwa perusahaan sekarang mengizinkan sebagian kecil peninjau konten penuh waktu kembali ke kantor atas dasar sukarela dan, menurut Wakil Presiden Integritas Facebook Guy Rosen, “mayoritas” peninjau konten kontraknya sekarang dapat bekerja dari rumah. “Manusia akan terus menjadi bagian yang sangat penting dari persamaan,” kata Rosen.

Sumber:

https://works.bepress.com/m-lukito/13/