Sürpriz: Facebook, Facebook'un Haberler İçin Tamam olduğunu söylüyor!
Tek sorun? Facebook tarafından istihdam edilen kişiler tarafından yapılan bir Facebook çalışmasıdır.
Facebook'un kendi araştırmacılarının, şirketlerinin insanların haber beslemelerini manipülasyonlarının etkisini en aza indirmesine gerçekten şaşırmalı mıyız?
Çalışma, Facebook'ta ideolojik olarak çeşitli haberlere ve fikirlere maruz kalma, Eytan Bakshy ve meslektaşları tarafından Facebook'ta geçen hafta yayınlandı Bilim. Bu çalışma prestijli dergide nasıl yayınlanabilir? Bilim? 1 Akran incelemesinin, yalnızca şirketin verilerin göstermesini istediğini gösteren, şirketler tarafından yayınlanan kendi kendine hizmet eden çalışmaları yakalaması gerekmiyor mu?
Akran hakemlerinin bu çalışmayı yayınlandığı gibi nasıl geçtiğini merak etmek gerekir. Çalışmanın birçok eleştirisi zaten yayınlandı, bu yüzden başkaları tarafından alıntı yapılan sorunların hızlı bir şekilde özetini yapacağım. Christian Sandvig'in bu eleştirisi, Facebook araştırmacılarının yayınlanan çalışmada kendi bulgularını nasıl ortaya koydukları ile ilgili sorunu hemen hemen özetliyor:
Karşılaştırmalar konusunda, çalışma şöyle devam ediyor:
"Algoritmalardan çok bireysel seçimlerin, tavrı zorlayıcı içeriğe maruz kalmayı sınırladığını kesin olarak tespit ediyoruz."
"Algoritmik sıralamayla karşılaştırıldığında, bireylerin ne tüketeceklerine ilişkin seçimleri daha güçlü bir etkiye sahipti"
Alarm zilleri benim için çalıyor. Tütün endüstrisi bir zamanlar sigara içmenin kömür madenciliğinden daha az tehlikeli olduğunu söyleyen bir çalışmayı finanse etmiş olabilir, ancak burada kömür madencilerinin sigara içmesi hakkında bir çalışmamız var. Muhtemelen kömür madenindeyken.
Demek istediğim, "kullanıcı tercihleri" ile "algoritma" nın takas edilebileceği hiçbir senaryo olmadığı, çünkü bunlar birlikte oluyor […]. Kullanıcılar, algoritmanın kendileri için önceden filtrelediği şey arasından seçim yapar. Bu bir dizidir.
Bence bu iki şey hakkında doğru ifade ikisinin de kötü olduğudur - ikisi de kutuplaşmayı ve seçiciliği artırır. Yukarıda söylediğim gibi, algoritma, kullanıcıların seçiciliğini mütevazı bir şekilde artırıyor gibi görünüyor.
Aslında, Facebook'ta çalışan Facebook araştırmacılarının, biri diğerine bağlı olduğu için algoritmayı kullanıcının davranışından ayıramayacağınızı ve ayıramayacağınızı anlayacağını düşünürdünüz. Algoritmayı değiştirmeden (Facebook araştırması Adam Kramer'in keşfettiği, önce kullanıcının bilgilendirilmiş onayını almadan yapılacak iyi bir şey değildir), kullanıcıların neden bir şeyi başka bir şeyden çok tıkladıklarını gerçekten söyleyemezsiniz.
Ancak Kuzey Carolina Üniversitesi'nde profesör olan Zeynep Tüfekçi'nin Facebook araştırmasına ilişkin bu incelemesi, Chapel Hill, çalışmanın gerçekte bulunan verilerinin çalışmanın ekinde gömülü olduğunu yazdı:
Bağlantı ne kadar yüksekse, muhtemelen tıklanacaktır (çok daha fazla). Haber besleme algoritması tarafından belirlenen yerleştirmeye göre yaşar ve ölürsünüz. (Sean J. Taylor'ın doğru bir şekilde belirttiği gibi etki, yerleştirmenin ve algoritmanın sizin ne istediğinizi tahmin etmesi gerçeğinin bir kombinasyonudur).
Bu zaten biliniyordu, ancak Facebook araştırmacıları tarafından onaylanması harikadır (çalışma yalnızca Facebook çalışanları tarafından yazılmıştır). […]
Yeni bir bulgu, haber besleme algoritmasının (mütevazı bir şekilde) çeşitli içeriği bastırmasıdır ve bir diğer önemli ve aynı zamanda yeni bulgu, feed'e yerleştirmenin tıklama oranlarını (güçlü bir şekilde) etkilediğidir.
Facebook size okuma olasılığınızın daha yüksek olduğu (çünkü siyasi bakış açınıza uygun olduğu için) ve haber kaynağınızda ne kadar yüksek görünüyorsa, onu tıklama olasılığınız o kadar yüksek olan haberleri gösteriyor.
Başka bir deyişle, Facebook'un haber beslemenizi manipüle etmesi, muhtemelen neyi tıklayacağınızı belirlemede önemli bir katkıda bulunan faktör olmaya devam ediyor. Ve size politik olarak hizalanmış haberleri göstermek için bu beslemeyi manipüle etmeye devam ediyorlar, algoritmalarında herhangi bir önyargı yoksa.
Ve önemli bir şekilde Tüfekçi'nin belirttiği gibi, bu, Facebook araştırmacılarının onları incelemesinin daha uygun (ve daha ucuz) olması nedeniyle incelenen küçük, seçkin bir Facebook kullanıcısı grubuydu. Yalnızca Facebook'ta kendi siyasi bağlantılarını tanımlayan ve hizmette düzenli olarak oturum açan kullanıcılara baktılar (toplam Facebook kullanıcılarının yaklaşık yüzde 4'ü [kullanıcıların yalnızca yüzde 9'u Facebook'ta siyasi bağlantılarını beyan ediyor, yani bu genelleştirebileceğiniz bir örnek değil) herhangi bir şey]). Siyasi bağlantılarını Facebook'ta beyan etmeyen Facebook kullanıcıları hakkında hiçbir şey söylemiyor - ki bu çoğumuz.
Facebook daha sağlam bir çalışma yürütmüş olabilir mi? Elbette, ancak site dışında rastgele e-postayla işe alım ile birlikte sitede anket alımı gibi daha geleneksel araştırma tekniklerini gerektirecekti.
Öyleyse, Facebook araştırmacılarının haber akışlarında gördüklerinizin onların suçu olmadığını söylemek için dönüp durdukları, verilerden (Tüfekçi'nin izniyle) filtrelenmemiş, tarafsız bulgu şu:
Facebook araştırmacıları, Facebook’un haber besleme algoritmasının, insanların Facebook’taki sosyal ağlarından gördükleri ideolojik olarak çeşitli ve kesişen içeriği ölçülebilir bir miktarda azalttığını kesin olarak gösteriyor. Araştırmacılar, çeşitli içeriklere maruz kalmanın Facebook'un algoritması tarafından kendi kendini tanımlayan liberaller için% 8 ve kendi kendini tanımlayan muhafazakarlar için% 5 oranında bastırıldığını bildiriyor.
Veya, Christian Sandvig'in dediği gibi, “algoritma, kendini tanımlayan bir muhafazakarın gördüğü 20 kesişen sert haberden 1'ini (veya% 5'ini) ve kendini tanımlayan bir liberal olan 13 çapraz kesen sert haberden 1'ini filtreler. görüyor (% 8). " Algoritma bunları size göstermediği için arkadaşlarınız tarafından paylaşılan, katılmayacağınız daha az haber görüyorsunuz.
Ne yazık ki, dışında New York Times ve birkaç diğer medya kuruluşu, çoğu ana akım haber medya sitesi Facebook araştırmacılarının araştırmalarında iddia ettiklerini şüphe duymadan bildirdi.
Ama şimdi gerçeği biliyorsunuz - Facebook küçük, temsili olmayan bir örnek üzerinde çalıştı, ardından şirket için daha olumlu bir sonucu vurgulamak için verilerinin gerçekte gösterdiklerini küçümsedi. Bana göre bu, Facebook araştırmacılarının bilimsel araştırmanın amacını gerçekten anlamayan bir başka örneği - önyargılı olmayan ve manipüle edilmeyen bilgileri dünyayla paylaşmak.
Daha Fazla Okumak İçin…
Zeynep Tüfekçi: Facebook’un Algoritması İçerik Çeşitliliğini Nasıl Bastırır (Mütevazı) ve Haber Beslemesi Tıklamalarınızı Nasıl Yönetir?
Christian Sandvig: Facebook "Bizim Hatamız Değil" Araştırması
NY Times: Facebook Polarizasyon Kullanıyor mu? Site Farklılaşmaya Başlıyor
Dipnotlar:
- Ne yazık ki, şimdi daha fazla incelenmesi gereken saygın bilimsel yayınlar listeme başka bir dergi eklemem gerekiyor. Uzun süredir World of Psychology okurlarının bildiği gibi, bu liste her yıl daha da uzuyor: Pediatri (Pediatri, temel araştırma nedensel ilişkilerine aşina olmayan hiç kimse tarafından görünüşte gözden geçirilen teknolojiyle ilgili çalışmaları yayınlamaktadır.), Siberpsikoloji, Davranış ve Sosyal Ağ (Cyberpsychology, kalitesine bakılmaksızın İnternet bağımlılığı veya sosyal ağ hakkında herhangi bir çalışmayı yayınlıyor.) Ve şimdi, Bilim. [↩]