Vid det här laget är det uppenbart att alla nya möjligheter till datainsamling och dataanalys gör att vi kan dra slutsatser och lärdomar om bland annat mänskligt beteende på ett sätt som tidigare inte gått. Halvvägs in i Shoshana Zuboffs bok The Age of Surveillance Capitalism har jag börjat fundera på vilka möjligheter till kunskap som är etiska att välja bort.
The Age of Surveillance Capitalism är en tjock bok. Den väcker många tankar om digitalisering och samhälle som jag med all säkerhet kommer att återkomma till under hösten och vintern. Där jag är i boken just nu skriver hon bland annat om de kritiserade experiment som Facebook gjorde för några år sedan, då man testade att skruva vissa användares flöde åt det mer negativa hållet medan andra Facebook-användare fick se mer positiva statusuppdateringar från vännerna.
Kritiken handlar bland annat om att Facebook utförde de här försöken utan att användarna kände till dem. Den kretsar också kring Facebooks möjlighet att utnyttja den här typen av datainsamling och dataanalys för att på olika sätt påverka användarnas tankar och beteenden åt olika håll.
Men oavsett vad man tycker om hur Facebook genomförde det här och liknande experiment, och hur kunskaperna i teori och praktik kan utnyttjas finns det ett viktigt principiellt resonemang att föra här:
Digitaliseringen ger oss nya möjligheter att samla in och analysera data. Det gör det möjligt att lära nya saker, om människors beteenden och om annat.
Det går att vända och vrida på det här på flera olika sätt.
En ingångspunkt, den som kanske är den vanligaste: Var går gränsen för vilken data som är etiskt möjlig att samla in – och vilka analyser av den är vi bekväma med?
En annan ingångspunkt, som man inte hör lika ofta: Var går gränsen för vilken data vi kan låta bli att samla in – och vilka analyser kan vi inte med gott samvete avstå från att göra?
Vi pratar ofta om de etiska aspekterna av de teknikval som görs. Men var är diskussionen om etiken kring den teknik som väljs bort? I Almedalen arrangerade forskningsinstitutet RISE 2018 en paneldebatt under rubriken Schyssta algoritmer – människans bästa vän? Vinnovas generaldirektör Darja Isaksson var med i panelen, och hon lyfte frågan från enskilda tillämpningar till ett systemperspektiv. I en artikel i IVA-aktuellt hösten 2018 sammanfattade jag hennes resonemang så här:
Eftersom mänskligheten kommer att behöva artificiell intelligens för att lösa några av det stora globala utmaningarna – som klimatfrågan, matförsörjning och hållbara transporter – är ”schyssta algoritmer” också att se till att tekniken verkligen används där den gör nytta.
Själv famlar jag efter riktigt bra svar på de här frågorna. För det är ju väldigt lätt att tycka att teknik ska användas till bra saker och inte till dåliga. Men det är svårt att säga vad som är bra och vad som är dåligt.
Det är uppenbart att det som så många gånger är enkelt att måla upp verkligheten som svartvit – ”datainsamling är integritetskränkande och dataanalys gör det möjligt att påverka oss på massor av dåliga sätt” – när den i själva verket är full av gråskalor – ”viss data är givetvis integritetskänslig, men för samhällets bästa måste vi tillåta att den används för just den här typen av analys”.
Men jag tror att en sak är uppenbar. Vi måste sluta diskutera teknikens möjligheter utifrån de problematiska tillämpningar vi reagerar på idag. Och i stället fundera på hur samma teknik kan användas till andra saker.
(Vilket för övrigt knyter an till en annan fråga som jag grubblar på, men som får vänta till en annan gång: Just nu ställs ofta personlig integritet i första rummet. Men är den personliga integriteten alltid det mänskliga värde som ska prioriteras? Och i så fall, vilken aspekt av personlig integritet? Men, som sagt, det får bli en annan gång.)
Foto: Nick Tiemeyer.