Kejutan: Facebook mengatakan bahawa Facebook A-Okay untuk Berita!

Satu kajian diterbitkan minggu lalu di jurnal itu Sains yang menunjukkan bahawa algoritma Facebook bukan penyebab "gelembung penapis" hipotesis - di mana orang hanya melihat berita yang sesuai dengan kecenderungan politik mereka di rangkaian sosial.

Satu-satunya masalah? Ini adalah kajian Facebook yang dilakukan oleh orang yang bekerja di Facebook.

Sekiranya kita benar-benar terkejut bahawa penyelidik Facebook sendiri meminimumkan kesan manipulasi syarikat mereka terhadap suapan berita orang?

Kajian itu, Pendedahan kepada berita dan pendapat yang pelbagai dari segi ideologi di Facebook, oleh Eytan Bakshy dan rakan-rakan di Facebook diterbitkan minggu lalu di Sains. Bagaimana kajian ini dapat diterbitkan dalam jurnal yang berprestij Sains? 1 Tidakkah semakan rakan sebaya seharusnya dapat membuat kajian layan diri yang diterbitkan oleh syarikat yang hanya menunjukkan apa yang syarikat mahu data tunjukkan?

Kita mesti tertanya-tanya bagaimana pengulas sebaya lulus kajian ini seperti yang diterbitkan. Banyak kritikan kajian telah diterbitkan, jadi saya hanya akan menyelesaikan masalah yang dikutip oleh orang lain. Kritikan dari Christian Sandvig ini merangkumi masalah bagaimana para penyelidik Facebook memutarkan penemuan mereka sendiri dalam kajian yang diterbitkan:

Mengenai subjek perbandingan, kajian ini mengatakan bahawa:

"Kami secara konklusif menetapkan bahawa ... pilihan individu lebih daripada algoritma membatasi pendedahan kepada kandungan yang mencabar sikap."

"Berbanding dengan peringkat algoritma, pilihan individu tentang apa yang hendak dimakan mempunyai kesan yang lebih kuat"

Loceng penggera berbunyi untuk saya. Industri tembakau mungkin pernah membiayai sebuah kajian yang mengatakan bahawa merokok kurang berbahaya daripada perlombongan arang batu, tetapi di sini kita mempunyai kajian mengenai penambang arang merokok. Mungkin semasa mereka berada di lombong arang batu.

Yang saya maksudkan adalah bahawa tidak ada senario di mana "pilihan pengguna" berbanding "algoritma" dapat diperdagangkan, kerana itu terjadi bersama-sama […]. Pengguna memilih dari algoritma yang telah disaring untuknya. Ia adalah urutan.

Saya rasa pernyataan yang tepat mengenai kedua-dua perkara ini adalah kedua-duanya tidak baik - keduanya meningkatkan polarisasi dan selektiviti. Seperti yang saya katakan di atas, algoritma nampaknya secara sederhana meningkatkan selektiviti pengguna.

Sesungguhnya, anda fikir penyelidik Facebook yang, anda tahu, bekerja di Facebook, akan memahami bahawa anda tidak dapat mengusik dan memisahkan algoritma dari tingkah laku pengguna, kerana satu bergantung kepada yang lain. Tanpa memanipulasi algoritma (penyelidikan Facebook yang ditemui oleh Adam Kramer bukanlah perkara yang baik untuk dilakukan tanpa mendapatkan persetujuan pengguna terlebih dahulu), anda tidak boleh benar-benar mengatakan mengapa pengguna mengklik satu perkara lebih daripada yang lain.

Tetapi tinjauan kajian Facebook ini dari Zeynep Tufekci, seorang profesor di University of North Carolina, Chapel Hill menulis bahawa apa yang benar-benar dijumpai data kajian itu dikuburkan di lampiran kajian:

Semakin tinggi pautan, semakin banyak (lebih banyak) kemungkinan ia akan diklik. Anda hidup dan mati dengan penempatan, ditentukan oleh algoritma feed berita. (Kesannya, seperti yang dinyatakan oleh Sean J. Taylor dengan betul, adalah gabungan penempatan, dan fakta bahawa algoritma meneka apa yang anda mahukan).

Perkara ini sudah diketahui, kebanyakannya, tetapi ada baiknya mengesahkannya oleh penyelidik Facebook (kajian ini hanya dikarang oleh pekerja Facebook). […]

Satu penemuan novel adalah bahawa algoritma feed berita (sederhana) menekan pelbagai kandungan, dan penemuan lain yang penting dan baru adalah bahawa penempatan dalam feed berpengaruh (sangat) terhadap kadar klik-tayang.

Facebook menunjukkan kepada anda berita yang kemungkinan besar anda baca (kerana ia setuju dengan pandangan politik anda) dan semakin tinggi ia muncul dalam suapan berita anda, semakin besar kemungkinan anda akan mengkliknya.

Dengan kata lain, manipulasi Facebook newsfeed anda terus menjadi faktor penyumbang penting dalam menentukan perkara yang kemungkinan anda akan klik. Dan mereka terus memanipulasi suapan itu untuk menunjukkan kepada anda berita berita yang berpolitik lebih daripada jika tidak ada bias dalam algoritma mereka.

Dan, seperti yang dinyatakan oleh Tufekci, ini adalah sekumpulan kecil pengguna Facebook yang dikaji, hanya kerana lebih senang (dan lebih murah) bagi para penyelidik Facebook untuk mempelajarinya. Mereka hanya melihat pengguna yang mengenal pasti fahaman politik mereka di Facebook dan kerap masuk ke perkhidmatan (kira-kira 4 peratus daripada jumlah pengguna Facebook [hanya 9 peratus pengguna menyatakan gabungan politik mereka di Facebook, yang bermaksud ini bukan contoh yang boleh anda umumkan) apa-apa dari]). Ia tidak mengatakan apa-apa mengenai pengguna Facebook yang tidak menyatakan gabungan politik mereka di Facebook - yang merupakan sebahagian besar daripada kita.

Mungkinkah Facebook telah menjalankan kajian yang lebih mantap? Sudah tentu, tetapi memerlukan teknik penyelidikan yang lebih tradisional, seperti pengambilan tinjauan di laman web yang digabungkan dengan pengambilan e-mel secara rawak di luar laman web.

Jadi, inilah penemuan yang tidak disaring dan tidak berat sebelah dari data (ihsan Tufekci) bahawa para penyelidik Facebook nampaknya berputar untuk mengatakan bahawa apa yang anda lihat dalam suapan berita mereka bukan salah mereka:

Penyelidik Facebook secara konklusif menunjukkan bahawa algoritma penyusuan berita Facebook menurun secara beragam, kandungan serentak yang dilihat orang dari rangkaian sosial mereka di Facebook dengan jumlah yang dapat diukur. Para penyelidik melaporkan bahawa pendedahan kepada pelbagai kandungan ditekan oleh algoritma Facebook sebanyak 8% untuk golongan liberal yang dikenal pasti dan 5% untuk golongan konservatif yang dikenal pasti.

Atau, seperti yang dikatakan oleh Christian Sandvig, “algoritma menyaring 1 dari 20 kisah berita sulit yang dapat dilihat oleh seorang konservatif (atau 5%) dan 1 dari 13 kisah berita sulit yang dianggap liberal melihat (8%). " Anda melihat lebih sedikit item berita yang anda tidak setuju yang dikongsi oleh rakan anda kerana algoritma tidak menunjukkannya kepada anda.

Malangnya, di luar New York Times dan beberapa gerai lain yang terpilih, kebanyakan laman media berita arus perdana melaporkan apa yang dituntut oleh penyelidik Facebook dalam kajian mereka, tanpa keraguan.

Tetapi sekarang anda sudah mengetahui kebenarannya - Facebook mengkaji sampel kecil yang tidak mewakili, kemudian memandang rendah apa yang sebenarnya ditunjukkan oleh data mereka untuk menekankan hasil yang lebih positif terhadap syarikat itu. Bagi saya, ini adalah satu lagi contoh penyelidik Facebook yang tidak begitu memahami maksud penyelidikan saintifik - untuk berkongsi pengetahuan dengan dunia yang tidak berat sebelah dan dimanipulasi.

Untuk Bacaan Lanjut ...

Zeynep Tufekci: Bagaimana Algoritma Facebook Mencegah Kepelbagaian Kandungan (Sederhana) dan Bagaimana Suapan Berita Mengatur Klik Anda

Christian Sandvig: Kajian Facebook "Ini Bukan Kesalahan Kita"

NY Times: Facebook Menggunakan Polarisasi? Laman web Bermula Berbeza

Nota kaki:

  1. Malangnya, saya sekarang perlu menambahkan jurnal lain ke dalam senarai penerbitan ilmiah saya yang dihormati dan perlu diteliti lebih lanjut. Seperti yang diketahui oleh pembaca World of Psychology yang lama, senarai itu semakin panjang setiap tahun: Pediatrik (Pediatrics menerbitkan kajian mengenai teknologi yang nampaknya ditinjau oleh tidak ada yang biasa dengan hubungan penyebab penyelidikan asas.), Cyberpsychology, Behavior, dan Social Networking (Cyberpsychology nampaknya menerbitkan sebarang kajian mengenai ketagihan Internet atau rangkaian sosial, tanpa mengira kualitinya.) Dan sekarang, Sains. [↩]

!-- GDPR -->