• Hoppa till huvudnavigering
  • Hoppa till huvudinnehåll

Anders Thoresson

  • Hem
  • Föreläsningar
  • Blogg
  • Effektivt
  • Digitalsamtal
  • Om
  • Show Search
Hide Search

filterbubblan

Jämför inte nätets algoritmiska urval med ett idealläge som inte existerar – om filterbubblor

Publicerad 4 februari, 2020

Reuters Institute:

We can’t assume that offline, or when people are self-selecting news online, they’re doing it in a completely random way. People are always engaging in personalisation to some extent and if we want to understand the extent of pre-selected personalisation, we have to compare it with the realistic alternative, not hypothetical ideals.

Reuters Institute livesände nyligen ett seminarium om filterbubblor – och vad forskningen faktiskt visar. Och nu har de publicerat en sammanfattning av innehållet på sin webbplats. Viktig läsning.

En slutsats värd att lyfta fram: Ett personligt urval har alltid skett i nyhetskonsumtionen, även offline och innan internet. Men då på ett egenvalt sätt, inte av algoritmer. Det intressanta är att det urval vi själva gör är mer begränsat.

When people are offline, they stick to a couple of their preferred news sources. They dig very deeply into those news sources and tend not to deviate from them. Online, it’s a bit different. Audiences for individual outlets are smaller because people spread their news consumption thinly across lots of different outlets.

När innehåll är gratis och dessutom frikopplat från bäraren ”tidning” eller ”nyhetssändning” blir det enklare att ta del av innehåll från många olika typer av källor.

Några tankar om valresultat, filterbubblor och algoritmer

Publicerad 11 november, 2016

“Advertising on Facebook makes it easy to find the right people, capture their attention and get results.”

Det är Facebooks egna ord.

Med annonser på Facebook går det att marknadsföra varor och tjänster.

Men kanske också politik.

I ett av de senaste avsnitten av riskkapitalbolaget Andreesens Horowitz podcast är ämnet just likheter mellan att marknadsföra en vara eller en tjänst och att marknadsföra en politisk idé. Med i samtalet är en kille som heter Todd Cranney. Han har erfarenhet från flera valkampanjer i USA, bland annat Mitt Romneys presidentrace 2012.

Av den diskussionen att döma är likheterna mellan vara och politik stora, inte minst vad gäller verktygen som kan användas för marknadsföring.

I ljuset av det här är det inte helt lätt att köpa Mark Zuckerbergs påstående från igår, att det skulle vara en “galen tanke” att Facebook skulle kunna ha haft ett inflytande i det amerikanska presidentvalet.

Kan Facebook användas i marknadsföring eller inte?

Möjligen uppstår en förvirring i debatten just nu eftersom folk pratar om olika saker.

Facebook drivs av mängder av algoritmer, matematiska regler som bland annat fattar beslut om vem som får se vad och när. Det här är det som fått namnet filterbubblan.

Det diskussionen handlar om är de algoritmer som styr vad som dyker upp i nyhetsflödet, där inlägg från vänner blandas med inlägg från grupper och sidor man har gillat.

Men algoritmen som styr det urvalet är inte den enda.

Det finns också algoritmer som används för att styra annonser och sponsrade länkar på Facebook, så att de visas för den målgrupp som jag är intresserad av. Det här är givetvis också möjligheter som använts av både Trump och Clinton.

Zeynep Tufekci har har skrivit en intressant artikel om det här 2014, Engineering the Public: Big Data, Surveillance and Computational Politics. Den är värd att läsa, och orkar man inte hela så har jag sammanfattat den i ett blogginlägg.

Men jag tror också att Newsfeed-algoritmen är intressant och viktig att diskutera. Buzzfeed har bland annat skrivit om en liten ort i Makedonien där ett antal invånare specialiserat sig på att skriva fejkade pro-Trump-nyheter.

Det här är givetvis inte en helt enkel situation för Facebook att hantera. En utmaning är att det inte finns något objektivt rätt och fel när det gäller vad de ska välja ut i nyhetsflödet, åtminstone inte sett utifrån det faktiska innehållet. Algoritmer för självkörande bilar är ju lättare att bedöma: Om de leder till färre skadade och döda i trafiken, då gör de autonoma bilarna ett bra jobb. Om inte så är det tillbaka till ritbordet för ingenjörerna.
Men vilket val ska Facebook göra för att välja “rätt” när en statusuppdatering väljs ut istället för en annan?

Vad som är enklare för Facebook är att optimera algoritmerna på objektiva mätetal: Vad får många klick? Vad får många likes? Vilka länkar stannar användarna en längre stund på (en indikation på kvalitet) och från vilka återkommer de snabbare (inte lika bra)?

I Vox föreslås flera tänkbara lösningar, bland annat med mänskliga redaktörer i loopen:

“Facebook could choose a random sample of articles from popular online publications and send them to independent experts for a review of their depth and accuracy. If a publication’s articles generally receive high marks, then other articles from the same publication could get a bonus in the Facebook algorithm, while a low-scoring article would push its publication’s posts toward the back of the line.”

Ett sånt upplägg skulle givetvis öppna för diskussioner om bias hos de som gör granskningen.

Det som är viktigt att komma ihåg då är att det inte finns några icke-beslut för Facebook i den här frågan. I någon mening finns ett bias även i dagens algoritmer, bara ett annat.

Och självklart är det här frågor som diskuteras på Facebook. Så sent som i augusti skrev företaget om hur de skruvat på algoritmen för att minska klickbetes-rubrikerna i flödet. Och i debatten efter presidentvalet har Facebook lämnat ett svar till Techcrunch:

“We take misinformation on Facebook very seriously. We value authentic communication, and hear consistently from those who use Facebook that they prefer not to see misinformation. In Newsfeed we use various signals based on community feedback to determine which posts are likely to contain inaccurate information, and reduce their distribution. In Trending we look at a variety of signals to help make sure the topics being shown are reflective of real-world events, and take additional steps to prevent false or misleading content from appearing. Despite these efforts we understand there’s so much more we need to do, and that is why it’s important that we keep improving our ability to detect misinformation. We’re committed to continuing to work on this issue and improve the experiences on our platform.”

Lyfter man blicken från Facebook och tittar på självlärande algoritmer rent generellt så finns det mycket, mycket mer att fundera kring. “Algorithmic accountability” är ett begrepp som börjat dyka upp i de nyhetsflöden jag följer, i min del av filterbubblan.

Jag återkommer om det.

Foto: Markus Spiske.

Filterbubblan: Algoritmer är mänskliga beslut i kodutförande

Publicerad 3 november, 2016

Frågan om filterbubblan och vad personanpassningen av allt fler tjänster på nätet innebär är ämnen som jag ständigt återkommer till, både i texter och i föreläsningar. Nu har jag fått en ny anledning att skriva om det här, efter att ha läst Per Grankvists nya essä En värld av filterbubblor1. Och det är utmärkt, tycker jag. Det här är verkligen inte en statisk situation. Tjänsternas algoritmer utvecklas ständigt, och forskningen om deras påverkan har också börjat ta form.

Vilken musikstil är din?

För att konkretisera vad filterbubblor egentligen innebär vänder sig Per Grankvist till Spotify och funktionen Discover Weekly. Utifrån vad vi lyssnat på kommer Spotify med förslag på vad vi också kan tänkas gilla, sammanställt i en ny, personanpassad lista varje måndag. Till skillnad från statusuppdateringar på Facebook eller länkförslag hos Google blir det i urvalet av musik tydligt vad en filterbubbla kan vara: Fler varianter av det du redan gillar. Det är svårt att ha en instinktiv känsla för vilken typ av innehåll Google eller Facebook väljer ut åt oss. Men hur olika musikstilar skiljer sig från varandra kan de flesta av oss höra. Hos Spotify blir det därför uppenbart att Discover Weekly inte innehåller låtar slumpvist valda ur det gigantiska låtbiblioteket.

Vad är alternativet till personanpassning?

Personanpassningen innebär på det här sättet till att nätet blir mer användbart för mig. På Spotify får jag musikförslag som ligger i linje med min smak. På Facebook får jag i huvudsak se uppdateringar från de vänner och grupper jag bryr mig mest om. Google har en känsla för vad jag menar med mina sökningar.

Och det finns all anledning att tro att det är så här vi föredrar att nätet ska fungera. Åtminstone hävdade Mark Zuckerberg det i en intervju med Wired för tre år sedan:

If you only have time to look at 10 or 20 stories, it’s much better to have the best ones at the top. I think that’s a better experience than missing your cousin’s announcement that she’s pregnant, because it appears 30 stories down. We run experiments all the time where 1 percent of users get an unranked feed and all the metrics that we have show that those people’s experience is meaningfully worse.

Inget urval är “osorterat”

Värt att notera: “Unranked” betyder inte “osorterad” utan att inläggen kommer i kronologisk ordning, med senaste nytt. Jag passar på att göra det påpekandet, eftersom det ibland låter som om algoritmer och personanpassning är ett dåligt alternativ till en “ofiltrerad” eller “neutral” sorteringsordning. Bland annat var det så sökmotorn DuckDuckGo positionerade sig gentemot Google i en annonskampanj 2012. I reklamfilmen påstås att DuckDuckGo “are giving you unfiltered search results by not collecting any personal information”.

Det här är i sak fel – och dessutom inte nödvändigtvis ett bättre alternativ till personliga sökresultat. Självklart är träfflistan också hos DuckDuckGo både filtrerad och sorterad. Om den inte var det skulle det innebära att alla träffar som matchade användarens sökord skulle presenteras i en enda stor röra. Däremot är träfflistan hos DuckDuckGo inte sorterad på olika sätt för olika personer.

Det innebär att de som söker hos DuckDuckGo inte hamnar i sina egna filterbubblor.

Däremot innebär det att alla som använder DuckDuckGo hamnar i samma filterbubbla. Och det är inte nödvändigtvis ett bättre alternativ.

Är människor mer objektiva?

Per Grankvists essä går att läsa som om det fanns en skillnad mellan mänskligt redaktörskap å ena sidan, och algoritmer å den andra. Att mänskliga redaktörer (och med redaktörer avser han i första hand redaktörer i den vanligaste betydelsen, på traditionella redaktioner hos traditionella medier) i större utsträckning kan förväntas göra “objektiva” avvägningar, medan algoritmer ger användaren vad hen vill ha.

Jag var inne på samma resonemang för sex år sedan, i ett blogginlägg där jag hoppades att redaktionernas redaktörer skulle bli mer synliga på nätet:

Vad är det jag som prenumerant av en papperstidning egentligen betalar för? Text och bild, givetvis. Distribution och tryck, så klart. Men i stor utsträckning också för det arbete som redaktörer och redigerare utför i skymundan. Tjänsten redaktörskap är för mig värd många kronor. (…)

Nu går det givetvis alltid att ha synpunkter på hur bra jobb redaktörerna på en morgontidning gör, om det är rätt grejer som prioriteras. Men i slutändan är det ändå deras arbete som till stor del förklarar varför tidningen fortfarande är en viktig del av morgonrutinen. De hjälper mig att spara tid genom att snabbt ge en överblick över det senaste dygnets viktigaste nyheter.

Men sex år senare är jag inte längre helt övertygad om att det här resonemanget håller.

De algoritmer som gallrar i flödena idag gör det inte utifrån någon naturlag om vad som ska hamna i topp. Algoritmer är inte heller magi. Algoritmer (för den tillämpning vi diskuterar här) är mänskligt redaktörskap uttryckt i programkod. Det innebär att nyhetsvärderingen kan ske mycket snabbare, och det blir möjligt att göra den på ett personanpassat sätt. Men det innebär inte att den måste vara så långt viktad åt vill ha-hållet som den är på många ställen idag. Det är möjligt att ge algoritmerna större inslag av viktigt också. Och även om vi aldrig kommer att vara helt överens om vad som är viktigt och vad som är ren underhållning kommer vi många gånger kunna vara överens om de stora dragen, det är jag övertygad om.

En person som ofta lyfter fram en obalans som finns idag är Zeynep Tufekci. I en text från augusti 2014 skriver hon till exempel om händelserna i Ferguson, då Michael Brown sköts ihjäl av polis och de efterföljande protesterna, och hur stor skillnad i genomslag rapporteringen om dem hade på Facebook jämfört med Twitter.

Algoritmer kan också prioritera “viktigt”

Det är inte så att det är omöjligt för algoritmer att lyfta fram händelser som Ferguson och istället spela ner det senaste skvallret om Kardashians. Det är inte en kompetensskillnad mellan mänskliga redaktörer och redaktörer i kod. (Det här är också en viktig sak att hålla i huvudet: För varje länk en algoritm väljer att visa väljs massor av andra länkar bort. Prioriteringen som görs är inte ett nollsummespel, då hade den inte behövts över huvud taget.)

Det är en skillnad mellan de prioriteringar som bestämts ska vara de som gäller. Det är prioriteringar som görs av människor. Om jobbet sedan också utförs av mänskliga redaktörer eller mänskliga programmerare, det har mindre betydelse.

Per Grankvist landar i slutsatsen att det är betalningsviljan som avgör. Att de nätanvändare som är beredda att betala för ett redaktörskap får en nyhetsvärdering som prioriterar “viktigt” högre, genom att med sina pengar köpa sig tillgång till mänskliga redaktörer. De som hellre vill slippa betala får en nyhetsvärdering som prioriterar “vill ha”.

Jag tror att han kan ha rätt i det, men att sambandet inte är riktigt så direkt som man kan få uppfattningen av att det är när man läser hans text.

Företagen som utvecklar tjänster på nätet behöver intäkter. Det finns två huvudsakliga källor: Från användare eller från annonsörer. Oavsett vilken affärsmodell ett företag baserar sin verksamhet på måste de se till att användarna är nöjda. Är de inte det kommer de välja en annan innehållsleverantör på nätet, och då finns varken ett intäktsunderlag i form av prenumerationer eller annonsörer kvar att finansiera verksamheten med.

Och som jag resonerade i blogginlägget som jag länkar till här ovan, om redaktörernas arbete: Det är en av anledningarna till att jag betalar för en morgontidningen. Men om den faktiska gallringen görs direkt eller indirekt av en människa – anställd redaktör eller algoritm – spelar mig egentligen mindre roll.

Bubblan är inte ny – men den har krympt

Parallellen till traditionella mediers redaktörer återkommer flera gånger i Per Grankvists essä. Och det stämmer: Filterbubblan är inte ny, vi har bara fått ett nytt ord för att beskriva den. När jag läste till journalist på Göteborgs Universitet pratade vi mycket om gatekeepers, om personer som sitter på centrala positioner i nyhetsflödet och bestämmer vad som ska bli en förstasidesnyhet, vad som ska bli en notis och vad som inte ska få plats i tidningen över huvud taget.

Det nya är inte filtret i sig. Det nya är att det är automatiserat. Och med automationen ökar möjligheterna till inte ett flöde, utan många. Till personanpassning. Istället för att göra ett urval anpassat till en tidnings samlade läsekrets kan vi på nätet göra ett urval anpassat till Anders Thoresson.

Det innebär att filterbubblorna krymper.

Bra, som jag redan konstaterat, i vissa fall.

Mer problematiskt i andra.

Filterbubblor i politisk kommunikation

Per Grankvist tar i sin essä upp de mest debatterade filterbubblorna: De algoritmer hos Google och Facebook som väljer vilka länkar och statusuppdateringar vi får se i våra flöden.

Det som inte diskuteras lika ofta, och som saknas helt i essän, är när samma algoritmer används för att skräddarsy politiska budskap. Här tycker jag att det blir läskigt på riktigt, och återigen använder jag en text som Zeynep Tufekci har skrivit: Engineering the Public: Big Data, Surveillance and Computational Politics. Jag har refererat till den i ett tidigare blogginlägg, och plockar ett citat därifrån:

Principen är inte ny, politiker och företag har länge försökt analysera väljarkåren/konsumenterna för att hitta bra sätt att övertyga dem att deras politik/produkter är de bästa. Men det är här jag ser Zeynep Tufekcis artikel koppla till Eli Parisers teorier om filterbubblan och den krympande, offentliga sfären. Tidigare har kampanjande och marknadsföring skett via stortavlor på stan, tv-reklam och annonser i tidningar. Nu är det något helt annat.

När det politiska kampanjandet inte sker helt öppet varnar Zeynep Tufekci för att vi riskerar att mista en stor del av underlaget för en offentlig debatt.

Om de här frågorna handlade också avsnitt 22 av podcasten Digitalsamtal, där jag intervjuade statssekreterare Maja Fjaestad. Aktualiteten då var rapporten Algoritmer i samhället, beställd av Kansliet för strategi- och framtidsfrågor. Och redan i tredje avsnittet av podden pratade Carl Heath och jag om personanpassningen av nätet.

Bubblan är inte en – den är många

Samtidigt är det viktigt att komma ihåg att vi oftast pratar om filterbubblan, i singular. Men så ser ju inte verkligheten ut. De flesta av oss existerar i väldigt många olika sammanhang. Vi har kollegor, familj, vänner. Vi är kanske med i någon förening här, har träningskompisar där. Allt detta är plattformar där vi har möjlighet att möta nya tankar (och anledningen till varför DuckDuckGos idéer om samma sökresultat till alla kanske inte är helt optimal, trots allt).

Men det finns en sak som jag verkligen reagerar på – och vänder mig mot – i Per Grankvists text. Han skriver:

När Eli Pariser föreslog att internetjättarna ska förändra algoritmerna för att punktera våra bubblor och prioritera viktiga nyheter begärde han i själva verket bara att vi skulle byta ut en filterbubbla mot en annan. Bara tanken på att en central instans som skulle bestämma vilka nyheter som är viktiga och som alla följaktligen borde ta del av, skickar kalla kårar längs ryggen på liberaler, humanister och andra som värnar individens rätt att göra sina egna val.

Google och Facebook är redan de centrala instanserna. Deras algoritmer gör redan en värdering av vad som är det viktigaste för användaren att ta del av.

Sen råkar deras “viktigt” inte alltid sammanfalla med det som bland andra jag menar när jag använder det ordet.

  1. Essän finns också i en kortversion hos Dagens Nyheter. ↩︎

Foto: Sebastian Pichler

Facebook är inte en plats för livets negativa sidor

Publicerad 29 september, 2015

En återkommande diskussion om Facebook handlar om vad som är tillåtet och vad som tas bort från det sociala nätverket.

Igår råkade jag för första gången på länge ta några kliv åt det otillåtna hållet. Jag tänkte att inlägget jag skrev om hur Inoreader kan användas för att hålla koll på både Facebook-sidor och Twitter-konton borde intressera rätt många. Efter att ha skrivet en kort puff till inlägget på min egen Facebook-sida valde jag därför att betala Facebook några kronor för att ge den extra spridning, som ett sponsrat inlägg. Det tog några minuter och sen fick jag ett mail om att annonsen var godkänd.

Det gick några minuter till och sen kom ett nytt mail. Om att annonsen inte var godkänd.

Jag klickade på länken som lät mig ta kontakt med Facebook och frågade varför.

Beskedet var att bilden jag använde, skärmdumpen från Inoreader, innehåller den välkända Facebook-tummen. Och att använda Facebooks grafiska profil på det sättet är inte godkänt på Facebook.

Jag blir lite frustrerad över förhållningssättet, men inser också att det finns en logik bakom resonemanget. För det första är det lätt att se hur det skulle gå att skapa en hel del problematiskt innehåll, som sprider skadlig kod och annat, och locka besökare genom att utnyttja Facebooks välkända grafik.

Och för det andra, och vilket viktigare när det gäller med vilken rätt Facebook fattar det här beslutet: Facebook är inte en offentlig plats där jag som användare kan förvänta mig att få agera hur jag vill.

I mitt fall ledde det till frustration, men inte så mycket mer.

I det fall som The Guardian skriver om idag är det direkt problematiskt.

Brittiska Royal National Institute of Blind People vill lägga upp sin senaste reklamfilm på Facebook. Men har nekats.

Av den enkla anledningen att budskapet är för negativt. I en motivering till RNIB skriver Facebook:

We don’t accept language like ‘fear of losing your sight, losing your job?’ and the like. Instead, text must present realistic and accurate information in a neutral or positive way and should not have any direct attribution to people.

Reklamfilmen har redan 50000 visningar på Youtube. Vilket är många, men inte på något sätt fantastiskt många.

Problemet handlar om dominans. (Och jag vet att jag nu låter som en skiva som hakat upp sig). Facebook har byggt oerhört effektiva funktioner för informationsspridning, vilket är förklaringen till att nätverket har blivit en sån viktig plattform för bland annat nättidningar. Via länkar på Facebook kommer enorma mängder trafik.

I maj skrev jag om en artikel i Science som handlade om filterbubblan och i vilken utsträckning effekten faktiskt finns. Författarna (alla tre anställda på Facebook för övrigt) konstaterar att den existerar, men att egna val väger tyngre än algoritmerna.

Nyligen skrev Andreas Ekström om ett fall som påminner om den brittiska reklamfilmen, om hur Sydsvenskan hotades med att få sin Facebook-sida nedstängd om redaktionen publicerade fler bilder på bröst och hur Facebooks relation till världens mediehus är ett växande problem. Han konstaterar att det handlar om två värdegrunder som krockar.

Filmen om blindhet är dock något annat. Det handlar inte om värdegrund i första hand, utan om vad Facebook ska vara. En positiv plats dit man gärna återkommer. Av kommersiella skäl. Det är besökarnas ögon som Facebook säljer till annonsörerna.

Om Facebook inte bara sätter stopp för sånt som går emot amerikansk moral, utan också sånt som användarna upplever som negativt, vilken typ av filter sätter Facebook då upp i informationsspridningen?

Filmen kan du se här ovanför. Den är inte särskilt upplyftande, men jag tror att du tål den.

Filterbubblan finns – men egna val väger tungt

Publicerad 8 maj, 2015

Risken för filterbubblor på nätet har diskuterats ett bra tag. Våren 2011 publicerades boken The Filter Bubble av Eli Pariser. I den argumenterar han för att de algoritmer vars syfte är att personanpassa tjänster på nätet riskerar att åstadkomma stor skada: Man får se mer av det man redan är intresserad av, eller som bekräftar den politiska ståndpunkt man redan har intagit.

Nu finns det för första gången siffror på filterbubblans effekt. I Science publiceras en artikel som baseras på anonymiserad data från 10,1 miljoner amerikanska Facebook-användare1. Och det finns en del intressanta slutsatser att dra:

För det första: Filterbubblan finns.

För det andra: På Facebook påverkar användarnas egna val i större utsträckning än algoritmerna vad de läser.

För det tredje: Det författarna definierar som mjuka nyheter (sport, underhållning, resor) blir väldigt mycket mer läst än de hårda (politik, internationella och nationella nyheter).

Filterbubblan finns

Artikeln baseras på artiklar som delades på Facebook under andra halvåret 2014, av de 10,1 miljoner amerikanska Facebook-användare2 som ingår i materialet. Från publicering på den ursprunglig webbplatsen till läsning efter att någon upptäckt den på Facebook passerar varje länk flera filter: Någon ska välja att dela den på Facebook, Facebooks algoritmer ska välja att visa den för någon som i sin tur ska tycka att länken verkar tillräckligt intressant att klicka på.

Facebooks algoritmer minskar sannolikheten för att få se material som inte stämmer överens med personens tidigare åsikter med fem procent för konservativa och åtta procent för liberaler.

I nästa steg ska användaren i fråga också klicka på den “tankeutmanande” länken. För konservativa är den här tröskeln högre än algoritmen, medan den för liberaler är ungefär lika stor.

Det finns alltså en filterbubbla skapad av Facebooks algoritmer, men den är kanske inte lika påtaglig som man trott. Vilket Eli Pariser också konstaterar i sin kommentar. Han har några relevanta invändningar mot forskarnas resultat, men tycker också att det är positivt att Facebook publicerar hårda siffror eftersom det gör det möjligt att föra en konstruktiv diskussion om filtereffekterna.

Hur gör man hårda nyheter intressanta?

För oss journalister finns det en annan utmaning i Facebooks siffror. I genomsnitt klickar användarna i underlaget på sju procent av länkarna som leder till de hårda nyheterna.

Här finns något att fundera över på världens alla redaktioner: Hur gör man de viktiga nyheterna så intressanta att Facebooks användare i högre utsträckning väljer dem från smörgåsbordet med länkar?

Foto: Gisela Giardino.


  1. Värt att notera: Alla tre artikelförfattarna är anställda på Facebook. ↩
  2. Detta är personer som i sin Facebook-profil angett om det är liberaler eller konservativa. ↩
Nästa sida »

Copyright © 2022 · Monochrome Pro på Genesis Framework · WordPress · Logga in