🛠️ Just nu pågår en större helrenovering här. Om du hittar något som inte fungerar som det ska får du gärna höra av dig!

Skip to main content
profile pic
Anders Thoresson

Filterbubblan finns – men egna val väger tungt

| | | | | Lästid: 2 minuter (2373 tecken)

En färsk artikel bekräftar att filterbubblan finns, algoritmer påverkar vad Facebooks användare får ta del av. Men deras egna val påverkar i ännu större utsträckning.

Massor av bubblor med texten "You" i mitten.

Risken för filterbubblor på nätet har diskuterats ett bra tag. Våren 2011 publicerades boken The Filter Bubble av Eli Pariser. I den argumenterar han för att de algoritmer vars syfte är att personanpassa tjänster på nätet riskerar att åstadkomma stor skada: Man får se mer av det man redan är intresserad av, eller som bekräftar den politiska ståndpunkt man redan har intagit.

Nu finns det för första gången siffror på filterbubblans effekt. I Science publiceras en artikel som baseras på anonymiserad data från 10,1 miljoner amerikanska Facebook-användare1. Och det finns en del intressanta slutsatser att dra:

För det första: Filterbubblan finns.

För det andra: På Facebook påverkar användarnas egna val i större utsträckning än algoritmerna vad de läser.

För det tredje: Det författarna definierar som mjuka nyheter (sport, underhållning, resor) blir väldigt mycket mer läst än de hårda (politik, internationella och nationella nyheter).

Filterbubblan finns #

Artikeln baseras på artiklar som delades på Facebook under andra halvåret 2014, av de 10,1 miljoner amerikanska Facebook-användare2 som ingår i materialet. Från publicering på den ursprunglig webbplatsen till läsning efter att någon upptäckt den på Facebook passerar varje länk flera filter: Någon ska välja att dela den på Facebook, Facebooks algoritmer ska välja att visa den för någon som i sin tur ska tycka att länken verkar tillräckligt intressant att klicka på.

Facebooks algoritmer minskar sannolikheten för att få se material som inte stämmer överens med personens tidigare åsikter med fem procent för konservativa och åtta procent för liberaler.

I nästa steg ska användaren i fråga också klicka på den “tankeutmanande” länken. För konservativa är den här tröskeln högre än algoritmen, medan den för liberaler är ungefär lika stor.

Det finns alltså en filterbubbla skapad av Facebooks algoritmer, men den är kanske inte lika påtaglig som man trott. Vilket Eli Pariser också konstaterar i sin kommentar. Han har några relevanta invändningar mot forskarnas resultat, men tycker också att det är positivt att Facebook publicerar hårda siffror eftersom det gör det möjligt att föra en konstruktiv diskussion om filtereffekterna.

Hur gör man hårda nyheter intressanta? #

För oss journalister finns det en annan utmaning i Facebooks siffror. I genomsnitt klickar användarna i underlaget på sju procent av länkarna som leder till de hårda nyheterna.

Här finns något att fundera över på världens alla redaktioner: Hur gör man de viktiga nyheterna så intressanta att Facebooks användare i högre utsträckning väljer dem från smörgåsbordet med länkar?

Foto: Gisela Giardino.


  1. Värt att notera: Alla tre artikelförfattarna är anställda på Facebook. 

  2. Detta är personer som i sin Facebook-profil angett om det är liberaler eller konservativa.