đŸ› ïž Just nu pĂ„gĂ„r en större helrenovering hĂ€r. Om du hittar nĂ„got som inte fungerar som det ska fĂ„r du gĂ€rna höra av dig!

Skip to main content
profile pic
Anders Thoresson

NĂ„gra tankar om valresultat, filterbubblor och algoritmer

| | | | | | LĂ€stid: 4 minuter (4276 tecken)

En datorskÀrm med massor av programkod.

“Advertising on Facebook makes it easy to find the right people, capture their attention and get results.”

Det Àr Facebooks egna ord.

Med annonser pÄ Facebook gÄr det att marknadsföra varor och tjÀnster.

Men kanske ocksÄ politik.

I ett av de senaste avsnitten av riskkapitalbolaget Andreesens Horowitz podcast Àr Àmnet just likheter mellan att marknadsföra en vara eller en tjÀnst och att marknadsföra en politisk idé. Med i samtalet Àr en kille som heter Todd Cranney. Han har erfarenhet frÄn flera valkampanjer i USA, bland annat Mitt Romneys presidentrace 2012.

Av den diskussionen att döma Àr likheterna mellan vara och politik stora, inte minst vad gÀller verktygen som kan anvÀndas för marknadsföring.

I ljuset av det hĂ€r Ă€r det inte helt lĂ€tt att köpa Mark Zuckerbergs pĂ„stĂ„ende frĂ„n igĂ„r, att det skulle vara en “galen tanke” att Facebook skulle kunna ha haft ett inflytande i det amerikanska presidentvalet.

Kan Facebook anvÀndas i marknadsföring eller inte?

Möjligen uppstÄr en förvirring i debatten just nu eftersom folk pratar om olika saker.

Facebook drivs av mÀngder av algoritmer, matematiska regler som bland annat fattar beslut om vem som fÄr se vad och nÀr. Det hÀr Àr det som fÄtt namnet filterbubblan.

Det diskussionen handlar om Àr de algoritmer som styr vad som dyker upp i nyhetsflödet, dÀr inlÀgg frÄn vÀnner blandas med inlÀgg frÄn grupper och sidor man har gillat.

Men algoritmen som styr det urvalet Àr inte den enda.

Det finns ocksÄ algoritmer som anvÀnds för att styra annonser och sponsrade lÀnkar pÄ Facebook, sÄ att de visas för den mÄlgrupp som jag Àr intresserad av. Det hÀr Àr givetvis ocksÄ möjligheter som anvÀnts av bÄde Trump och Clinton.

Zeynep Tufekci har har skrivit en intressant artikel om det hÀr 2014, Engineering the Public: Big Data, Surveillance and Computational Politics. Den Àr vÀrd att lÀsa, och orkar man inte hela sÄ har jag sammanfattat den i ett blogginlÀgg.

Men jag tror ocksÄ att Newsfeed-algoritmen Àr intressant och viktig att diskutera. Buzzfeed har bland annat skrivit om en liten ort i Makedonien dÀr ett antal invÄnare specialiserat sig pÄ att skriva fejkade pro-Trump-nyheter.

Det hĂ€r Ă€r givetvis inte en helt enkel situation för Facebook att hantera. En utmaning Ă€r att det inte finns nĂ„got objektivt rĂ€tt och fel nĂ€r det gĂ€ller vad de ska vĂ€lja ut i nyhetsflödet, Ă„tminstone inte sett utifrĂ„n det faktiska innehĂ„llet. Algoritmer för sjĂ€lvkörande bilar Ă€r ju lĂ€ttare att bedöma: Om de leder till fĂ€rre skadade och döda i trafiken, dĂ„ gör de autonoma bilarna ett bra jobb. Om inte sĂ„ Ă€r det tillbaka till ritbordet för ingenjörerna. Men vilket val ska Facebook göra för att vĂ€lja “rĂ€tt” nĂ€r en statusuppdatering vĂ€ljs ut istĂ€llet för en annan?

Vad som Àr enklare för Facebook Àr att optimera algoritmerna pÄ objektiva mÀtetal: Vad fÄr mÄnga klick? Vad fÄr mÄnga likes? Vilka lÀnkar stannar anvÀndarna en lÀngre stund pÄ (en indikation pÄ kvalitet) och frÄn vilka Äterkommer de snabbare (inte lika bra)?

I Vox föreslÄs flera tÀnkbara lösningar, bland annat med mÀnskliga redaktörer i loopen:

“Facebook could choose a random sample of articles from popular online publications and send them to independent experts for a review of their depth and accuracy. If a publication’s articles generally receive high marks, then other articles from the same publication could get a bonus in the Facebook algorithm, while a low-scoring article would push its publication’s posts toward the back of the line.”

Ett sÄnt upplÀgg skulle givetvis öppna för diskussioner om bias hos de som gör granskningen.

Det som Àr viktigt att komma ihÄg dÄ Àr att det inte finns nÄgra icke-beslut för Facebook i den hÀr frÄgan. I nÄgon mening finns ett bias Àven i dagens algoritmer, bara ett annat.

Och sjÀlvklart Àr det hÀr frÄgor som diskuteras pÄ Facebook. SÄ sent som i augusti skrev företaget om hur de skruvat pÄ algoritmen för att minska klickbetes-rubrikerna i flödet. Och i debatten efter presidentvalet har Facebook lÀmnat ett svar till Techcrunch:

“We take misinformation on Facebook very seriously. We value authentic communication, and hear consistently from those who use Facebook that they prefer not to see misinformation. In Newsfeed we use various signals based on community feedback to determine which posts are likely to contain inaccurate information, and reduce their distribution. In Trending we look at a variety of signals to help make sure the topics being shown are reflective of real-world events, and take additional steps to prevent false or misleading content from appearing. Despite these efforts we understand there’s so much more we need to do, and that is why it’s important that we keep improving our ability to detect misinformation. We’re committed to continuing to work on this issue and improve the experiences on our platform.”

Lyfter man blicken frĂ„n Facebook och tittar pĂ„ sjĂ€lvlĂ€rande algoritmer rent generellt sĂ„ finns det mycket, mycket mer att fundera kring. “Algorithmic accountability” Ă€r ett begrepp som börjat dyka upp i de nyhetsflöden jag följer, i min del av filterbubblan.

Jag Ă„terkommer om det.

Foto: Markus Spiske.