“Advertising on Facebook makes it easy to find the right people, capture their attention and get results.”

Det är Facebooks egna ord.

Med annonser på Facebook går det att marknadsföra varor och tjänster.

Men kanske också politik.

I ett av de senaste avsnitten av riskkapitalbolaget Andreesens Horowitz podcast är ämnet just likheter mellan att marknadsföra en vara eller en tjänst och att marknadsföra en politisk idé. Med i samtalet är en kille som heter Todd Cranney. Han har erfarenhet från flera valkampanjer i USA, bland annat Mitt Romneys presidentrace 2012.

Av den diskussionen att döma är likheterna mellan vara och politik stora, inte minst vad gäller verktygen som kan användas för marknadsföring.

I ljuset av det här är det inte helt lätt att köpa Mark Zuckerbergs påstående från igår, att det skulle vara en “galen tanke” att Facebook skulle kunna ha haft ett inflytande i det amerikanska presidentvalet.

Kan Facebook användas i marknadsföring eller inte?

Möjligen uppstår en förvirring i debatten just nu eftersom folk pratar om olika saker.

Facebook drivs av mängder av algoritmer, matematiska regler som bland annat fattar beslut om vem som får se vad och när. Det här är det som fått namnet filterbubblan.

Det diskussionen handlar om är de algoritmer som styr vad som dyker upp i nyhetsflödet, där inlägg från vänner blandas med inlägg från grupper och sidor man har gillat.

Men algoritmen som styr det urvalet är inte den enda.

Det finns också algoritmer som används för att styra annonser och sponsrade länkar på Facebook, så att de visas för den målgrupp som jag är intresserad av. Det här är givetvis också möjligheter som använts av både Trump och Clinton.

Zeynep Tufekci har har skrivit en intressant artikel om det här 2014, Engineering the Public: Big Data, Surveillance and Computational Politics. Den är värd att läsa, och orkar man inte hela så har jag sammanfattat den i ett blogginlägg.

Men jag tror också att Newsfeed-algoritmen är intressant och viktig att diskutera. Buzzfeed har bland annat skrivit om en liten ort i Makedonien där ett antal invånare specialiserat sig på att skriva fejkade pro-Trump-nyheter.

Det här är givetvis inte en helt enkel situation för Facebook att hantera. En utmaning är att det inte finns något objektivt rätt och fel när det gäller vad de ska välja ut i nyhetsflödet, åtminstone inte sett utifrån det faktiska innehållet. Algoritmer för självkörande bilar är ju lättare att bedöma: Om de leder till färre skadade och döda i trafiken, då gör de autonoma bilarna ett bra jobb. Om inte så är det tillbaka till ritbordet för ingenjörerna.
Men vilket val ska Facebook göra för att välja “rätt” när en statusuppdatering väljs ut istället för en annan?

Vad som är enklare för Facebook är att optimera algoritmerna på objektiva mätetal: Vad får många klick? Vad får många likes? Vilka länkar stannar användarna en längre stund på (en indikation på kvalitet) och från vilka återkommer de snabbare (inte lika bra)?

I Vox föreslås flera tänkbara lösningar, bland annat med mänskliga redaktörer i loopen:

“Facebook could choose a random sample of articles from popular online publications and send them to independent experts for a review of their depth and accuracy. If a publication’s articles generally receive high marks, then other articles from the same publication could get a bonus in the Facebook algorithm, while a low-scoring article would push its publication’s posts toward the back of the line.”

Ett sånt upplägg skulle givetvis öppna för diskussioner om bias hos de som gör granskningen.

Det som är viktigt att komma ihåg då är att det inte finns några icke-beslut för Facebook i den här frågan. I någon mening finns ett bias även i dagens algoritmer, bara ett annat.

Och självklart är det här frågor som diskuteras på Facebook. Så sent som i augusti skrev företaget om hur de skruvat på algoritmen för att minska klickbetes-rubrikerna i flödet. Och i debatten efter presidentvalet har Facebook lämnat ett svar till Techcrunch:

“We take misinformation on Facebook very seriously. We value authentic communication, and hear consistently from those who use Facebook that they prefer not to see misinformation. In Newsfeed we use various signals based on community feedback to determine which posts are likely to contain inaccurate information, and reduce their distribution. In Trending we look at a variety of signals to help make sure the topics being shown are reflective of real-world events, and take additional steps to prevent false or misleading content from appearing. Despite these efforts we understand there’s so much more we need to do, and that is why it’s important that we keep improving our ability to detect misinformation. We’re committed to continuing to work on this issue and improve the experiences on our platform.”

Lyfter man blicken från Facebook och tittar på självlärande algoritmer rent generellt så finns det mycket, mycket mer att fundera kring. “Algorithmic accountability” är ett begrepp som börjat dyka upp i de nyhetsflöden jag följer, i min del av filterbubblan.

Jag återkommer om det.

Foto: Markus Spiske.