• Hoppa till huvudnavigering
  • Hoppa till huvudinnehåll

Anders Thoresson

  • Hem
  • Föreläsningar
  • Blogg
  • Effektivt
  • Digitalsamtal
  • Om
  • Show Search
Hide Search

demokrati

Fråga efter Internetdagarna 2019: Vem behöver förstå vad?

Publicerad 27 november, 2019

Mycket på årets upplaga av Internetdagarna handlade om data, AI och att vi måste förstå vad tekniken är bra på och var utmaningarna finns. Jag känner igen uppmaningen om förståelse från många andra sammanhang. Men jag tror att det börjar bli dags att bryta ner den uppmaningen och göra det tydligare vem som egentligen behöver förstå vad.

En maskininlärningsalgoritm som får titta på massor av bilder på blommor lär sig känna igen blommor, men inte katter. En maskininlärningsalgoritm som ska användas i rekryteringssammanhang och där man använder underlag om de som redan är anställda kommer fortsätta att rekrytera på samma sätt. Och därmed replikera de fördomar som finns hos personalen på HR-avdelningen och inte alls lyckas med den fördomsfulla rekrytering som leverantören av rekryteringsverktyget påstår.

Från huvudscenen lyfte bland andra danah boyd och Harper Reed in AI i sina presentationer, och resonerade med liknande exempel kring problemen med att dåligt dataunderlag leder till dålig AI.

”Det här måste vi förstå,” är budskapet. Och det måste vi. Jag har skrivit många artiklar och blogginlägg om det, jag lyfter det när jag själv föreläser om digitalisering och jag har pratat om det med gäster i Digitalsamtal. (Bland annat i avsnittet med danah boyd som redan är publicerat, och i samtalet med Harper Reed som kommer i podden inom kort.)

Men på tåget hem från Stockholm slår det mig: Det här är väldigt vagt.

”Det här måste vi förstå.”

Vad är ”det här” och vilka är ”vi”?

Att utvecklare, både i bemärkelsen människorna som gör jobbet och företagen som säljer tjänster och produkter, behöver förstå varför träningsdata spelar roll och begränsningarna för vad AI klarar av är uppenbart. Men redan här, i det som för mig känns självklart, är jag tveksam till hur det faktiskt ser ut.

Under 2017 och 2018 skrev jag mycket om hur digitaliseringen börjar synas i HR-branschen och då läst på och gjort intervjuer om en uppsjö av olika HR-lösningar som påstås använda AI på olika sätt. För att hjälpa till med just fördomsfria rekryteringar, eller gå igenom data från personalsystem för att hitta personer som är värda att satsa på i form av vidareutbildning, eller för att samla in och analysera hur personalen mår, eller… Listan kan göras lång.

Men när jag ställt frågor till en del av de här företagen om hur de kvalitetssäkrar träningsdata eller verifierar att algoritmernas slutsatser om vem som ska rekryteras, vem som ska få vidareutbildning, hur personalen mår verkligen utför uppgiften har de övertygande svaren många gånger saknats. Och hos de företag som använt lösningarna har det många gånger varit uppenbart att frågeställningen varit helt ny för dem när jag undrat hur de resonerat och utvärderat olika alternativ.

I förra veckan snubblade jag över bilderna och anteckningarna från en presentation om just AI:s begränsningar. Föreläsningen har den något provokativa titeln How to recognize AI snake oil. Men föreläsaren är inte en domedagsprofet. Det är i stället Arvind Narayanan, välkänd AI-professor från Princeton University.

I sin presentation spaltar han upp tre olika typer av uppgifter som AI idag används för:

  1. Identifiering, att känna igen något.
  2. Beslut, att välja mellan olika saker.
  3. Prognoser, att sia in i framtiden.

Han konstaterar att det första är AI redan fenomenalt bra på. Det här handlar om att låta datorer känna igen ansikten, cancertumörer, att översätta tal till text och andra uppgifter där det finns ett tydligt ”rätt” och ett tydligt ”fel”.

Punkt två handlar om att låta datorer fatta mänskliga beslut. Är det här mailet spam eller inte? Är det här hate speech eller inte? Vilket innehåll passar personen X bäst? Här är AI ännu inte perfekt, men under ständig förbättring.

Och så slutligen, försöken att förutspå framtiden, och mer specifikt kopplat till sociala aspekter. Kommer person X begå nya brott? Hur bra kommer Y göra ifrån sig på jobbet? Hur stor är risken för ett terrorattentat? Här skräder inte Narayanan sina ord. Rubriken på den bild som listar de är exemplen är Fundamentally dubious.

Men han nöjer sig inte med att gruppera de olika arbetsuppgifterna efter hur bra AI faktiskt är att utföra dem. Han konstaterar också att det för vart och ett av de tre områdena finns tydliga etiska aspekter:

För det första området på grund av att träffsäkerheten i detekteringen helt enkelt är väldigt hög. För det andra eftersom vissa misstag är oundvikliga. För det tredje eftersom osäkerheten i prognoserna är stora.

Självklart måste utvecklare, i båda bemärkelserna, ha koll på det här. Men räcker det?

Jag tror inte det. Av den enkla anledningen att utvecklarna kommer inte alltid ha det. Vilket innebär att vi användare allt oftare kommer att exponeras för teknik som har de här inbyggda bristerna. Och den exponeringen kommer i många olika former.

På en arbetsplats, i form av en chef som ska utvärdera vilka verktyg som ska användas. Och i form av anställda som använder de verktygen som chefen fattat beslut om. Här är det uppenbart att en chef med koll på de här begränsningarna för AI kommer att fatta bättre beslut om vad som ska köpas in än en chef som inte har den kollen.

Men också i privatlivet har det här konsekvenser, prylar och tjänster som med inslag av AI blir allt större där också.

Så absolut. ”Det här måste vi förstå.” Den här texten blir tyvärr ytterligare en argumentation för att det är så. Men fortfarande väldigt lite av svar på frågan om vem som behöver förstå vad.

Det kommer att finnas anledning att återkomma till den. Jag lovar att göra det. Och vill självklart komma i kontakt med personer som har ett svar på den. Tipsa gärna!

Så länge går det att läsa bloggversionen av den presentation Per Axbom höll på spåret Digital etik och moral på Internetdagarna. Det är en läsvärd text som tangerar min fråga, men utifrån ett litet annat perspektiv.

Kan ett räckviddsgolv för politiska annonser vara en lösning?

Publicerad 8 november, 2019

Valaffischer utanför stadshuset i Stockholm.

Hur Facebook och Twitter ska förhålla sig till politiska annonser har diskuterats flitigt på sistone, bland annat efter ett tal som Mark Zuckerberg höll och en tråd på Twitter från Jack Dorsey. Ett av de i mitt tycke intressantaste inspelen i frågan kom från Facebooks tidigare säkerhetschef Alex Stamos. Hans förslag är ett räckviddsgolv för politiska annonser.

Det frågan handlar om är hur främst Facebook gjort det möjligt att rikta politiska annonser till väldigt små grupper mottagare och att företaget samtidigt säger att man inte tänker sätta stopp för politiska annonser ens om de innehåller uppenbara lögner.

De som menar att Mark Zuckerbergs resonemang håller poängterar bland annat hur svårt det är att definiera vad som är en politisk annons. Andra menar att det skulle vara ett för kraftigt intrång i yttrandefriheten.

De som är kritiska menar å sin sida att yttrandefrihet är en sak, rätten att köpa sig räckvidd i sociala medier en annan. Och att samhällskostnaderna när desinformation tillåts spridas är för stora. Den kritiken hörs även internt på Facebook.

Däremot har jag sett få konkreta förslag på vad som ska göras. Därför blev jag glad när jag via svaren på Jack Dorseys tweet hittade ett intressant resonemang från Alex Stamos. Han började med att lyfta just gränsdragningsproblematiken, vad är en politisk annons och vad är inte en politisk annons? Om Facebook skulle dra den gränsen för snävt skulle det i värsta fall kunna innebära att mindre intresseorganisationer inte kan kampanja om klimatfrågor, samtidigt som jättar kan fortsätta köpa reklamplats i tv. För att slutligen landa i ett konkret förslag: Sätt ett räckviddsgolv för det som i den amerikanska debatten kallas för ”issue ads”, alltså annonser som tar upp olika typer av samhällsfrågor.

Stamos utvecklar det resonemanget hos Columbia Journalism Review:

Politicians lie all the time. What we want is for them to tell the same lies to everybody, instead of being able to hit 50 people at a time. There are a lot of ways you can try to regulate this, but I think the simplest is a requirement that the ”segment” somebody can hit has a floor. Maybe 10,000 people for a presidential election, 1,000 for a Congressional.

Ett annat sätt att formulera det på: Internet har gjort det för billigt att leverera skräddarsydda lögner. Tvingas du ljuga framför en större publik är sannolikheten större att någon faktiskt avslöjar den. Hos CJR nämns aldrig att Facebook annonsbibliotek där vem som helst kan bläddra runt bland i annonser som rör ”sociala frågor, valomröstningar eller politik”. Det är ett annat sätt att uppnå det jag tror Stamos önskar: Fler ögon som granskar innehållet i annonser och ifrågasätter det som är fel. Men fördelen med Stamos egna förslag är att man säkerställer att det är många ögon som ser annonserna. Det krävs inte aktiva beslut, att någon bestämmer sig för att titta på vad som faktiskt är publicerat som annonser.

Det finns en annan intressant aspekt av ett räckviddsgolv. Stamos menar att det skulle kunna vara ett sätt att stärka internetanvändarnas personliga integritet, eftersom nyttan av att samla in detaljerad persondata skulle minska:

This would also reduce the huge market for voter data that exists. There are dozens of ”Cambridge Analyticas” operating today that are collecting spectacularly sensitive data on individuals and using it to target ads for political campaigns, PACs, corporations and the like. They just aren’t dumb enough to get their data through breaking an API agreement with Facebook, so nobody talks about it.

Foto: Holger Ellgaard.

Tre reflektioner om Svenskarna och internet 2019

Publicerad 15 oktober, 2019

Måns Jonasson presenterar Svenskarna och internet 2019.

I morse klev Måns Jonasson från Internetstiftelsen ut på scenen på Vasateatern i Stockholm och presenterade årets upplaga av den återkommande enkätundersökningen Svenskarna och internet. Det här är mina tre första reflektioner.

Det digitala utanförskapet

Det går att prata om digital delaktighet på många sätt. I Svenskarna och internet sammanfattas den bland annat i en siffra: 95 procent. Så stor andel av människorna i Sverige är någorlunda regelbundna användare av internet. Men det innebär samtidigt, i absoluta tal, att drygt en miljon står utanför nätet. En halv miljon använder aldrig internet, ungefär lika många gör det väldigt sällan.

Ungefär en tredjedel av icke-användarna, drygt 300000 finns i åldersspannet från 12-65 år, resterande är 66 år eller äldre. Men det finns fler intressanta infallsvinklar på icke-användarna: De är fler på landsbygd än i städer, 11 respektive 7 procent. En större andel icke-användare har bara grundskoleutbildning, och lägre inkomster än de som använder nätet.

Det demografiska gapet framträder också i det nya frågebatteri som Internetstiftelsen lagt till i årets enkät, om användning av digitala samhällstjänster. Frågorna handlar om tio specifika tjänster, bland annat BankID, vårdtjänster, vårdappar och kontakter med Skatteverket och Försäkringskassan. De här tjänsterna utnyttjas i större grad av boende i städer än på landsbygd, mer av yngre än av äldre, högutbildade mer än lågutbildade, höginkomsttagare mer än låginkomsttagare.

De som exempelvis använder appar för digitala vårdbesök är i hög grad medelålders användare i storstadsområden, personer som gissningsvis använder apparna för att vinna tid i en stressig vardag. Men vårdapparna används inte av äldre, för vilka ett besök på vårdcentralen kan vara en heldagsutflykt med färdtjänsten och där en läkarkonsultation i ett videosamtal skulle kunna göra ännu större skillnad.

Siffrorna i Internetstiftelsens rapport stämmer för övrigt väl med de berättelser jag hör när jag reser runt i landet och föreläser om digitalisering för bibliotekarier: Biblioteken har blivit något av en digital helpdesk (vilket jag bloggade om i början av september) som tar sig an de medborgare som känner sig förbisprungna i digitaliseringsracet.

För individen är digital kompetens en fråga om att kunna vara delaktig och dra nytta av teknikens möjligheter. Bland svenska internetanvändare upplever 89 procent att de digitala samhällstjänsterna förenklar vardagen. Vi behöver se till att fler får uppleva den vardagsförbättringen.

Men också på samhällsnivå är enskilda medborgares digitala kompetens viktig. Bra genomförd digitalisering innebär inte bara förenklingar för medborgaren utan också för myndigheten som digitalisering. Effektivare och rättssäkrare handläggning kan vara två av vinsterna. Och det är ju i sin tur förbättringar som spiller över tillbaka på oss medborgare.

Lite på samma sätt som vaccinationer bygger ett skydd på populationsnivå tror jag att effekten av digitalisering blir större när många, verkligen många, kan ta del av den. Då kan en verksamhet lämna tidskrävande och problematiska analoga, manuella processer på allvar – istället för att tillhandahålla båda kontaktytorna med medborgarna som de finns till för.

Oro kring den personliga integriteten

Oron för den data som samlas in om oss fortsätter att öka. Ny fråga i år var om svenskarna känner sig övervakade på nätet. Nära hälften av oss gör det. Oron växer både vad gäller myndigheters och företags datainsamling, men är betydligt större när det gäller näringslivets insamling och användning av data. 46 procent är oroade när det gäller företagen, 21 procent när det gäller myndigheter.

Med tanke på den stora uppmärksamhet som exempelvis Cambridge Analytica-affären fått är det kanske begripligt att oron gentemot näringslivet finns.

Samtidigt saknas det inte skandaler kring myndigheters förmåga att hantera känslig information. Transportstyrelsen är ett exempel. Just Måns Jonassons upptäckt av stora säkerhetshål i Stockholms skolplattforms säkerhet ett annat.

Jag har svårt att säga vad jag tycker är en rimlig nivå att lägga sin oro på. Men jag tycker inte att det känns givet att det är en så stor skillnad i hur oroliga vi svenskar är för näringslivets respektive myndigheters sätt att hantera persondata.

Vid sidan av de direkta frågorna om personlig integritet är det en annan sak som är värd att notera i årets enkät: Det har skett en förändring i hur vi använder Facebook. I år visar siffrorna fortsatta tapp när det gäller publicering av egna bilder och statusuppdateringar och att dela andra inlägg. Samtidigt fortsätter chattfunktionen Messenger vara den som är allra populärast.

Det här är nationella siffror som understryker det som Mark Zuckerberg pratade om på Facebooks stora utvecklarkonferens F8 på försommaren. Personlig integritet kommer i många olika former. En handlar om datainsamlingen som företag och myndigheter gör. En annan om den information som vi publicerar på nätet i relation till andra internetanvändare.

På Facebook har man sett förflyttning från det öppna nyhetsflödet till stängda grupper och just Messenger. Därför berättade Zuckerberg att Facebook nu satsar på att bygga en ”privacy focused social network” (vilket i första hand handlar om just de mellanmänskliga relationerna), med bland annat stark kryptering och nya funktioner för att samla vänner i mindre grupper.

Till nästa år vore det intressant om Svenskarna och internet innehöll frågor om kryptoappar som Signal och Wire. Syns användningen av den typen av kommunikationsverktyg över huvud taget i statistiken?

Var möter teknikerna politiker och höga beslutsfattare?

Sista reflektionen handlar inte om siffrorna på storbildsskärmen, utan om oss som satt på Vasateaterns stolar och tittade på dem. I väntan på att alla skulle komma på plats låg en publikfråga uppe på skärmen. Exakta formuleringen minns jag inte, men den handlade om i vilken roll man var på plats. Som journalist, som någon som jobbar med digitalisering eller, med en klackspark, kanske som digitaliseringsminister.

Det i särklass vanligaste svaret var kommunikatör.

Jag förstår varför Svenskarna och internet är viktig för den som jobbar med kommunikation. Det är en enkätundersökning som visar förändringar i användarbeteenden, förändringar som självklart är viktiga att hålla koll på för en kommunikatör.

Men enkäten innehåller siffror som borde ge viktigt tankestoff åt väldigt många andra professioner också.

”De kan ju ta del av hela enkätresultatet på Internetstiftelsens webbplats.”

Absolut. Och jag hoppas att de gör det.

Men jag har samtidigt börjat skönja ett mönster. Jag har under de senaste åren varit på många olika konferenser om teknikutveckling och digitalisering runt om i landet. Och på de resorna har jag flera gånger pratat med frustrerade arrangörer som undrar var regionens ansvariga politiker och höga verksamhetschefer är.

Digitaliseringen finns inte skrev jag i en lång text i förra veckan. En av grundteserna där är att digitalisering inte handlar om tekniken i sig, utan vad vi använder den till. Och att skicka en it-chef till en regional digitaliseringskonferens är givetvis rätt. Hen kommer att vara en del av kommunens eller landstingens digitaliseringsprojekt, eftersom tekniken är verktyget som används för att få tillstånd en förändring i verksamheten.

Men det krävs också att verksamhetsansvariga är med och diskuterar digitalisering. Teknikerna vet inte nödvändigtvis vilka utmaningar eller problem som finns i verksamheten. Verksamhetscheferna vet inte nödvändigtvis vilka verktyg som finns som kan hjälpa till med en lösning.

För en lyckad digitalisering måste olika kompetensområden mötas.

En uppriktig och nyfiken fråga: I vilka sammanhang äger det mötet rum, mellan både olika kompetenser och olika verksamheter?

Digitaliseringen finns inte

Publicerad 11 oktober, 2019

Datorskärm med gröna tecken på svart bakgrund

Digitaliseringen finns inte. Inte framtiden heller. Vi behöver ett brett samtal om teknik och dess tillämpning, som ger plats för både olika tankar om vad teknik är och olika röster om hur den kan påverka.

Den här veckan arrangeras eMedborgarveckan, samordnad av Digidelnätverket. Mitt bidrag har varit sju biblioteksföreläsningar om vad digitalisering är och hur vi kan förhålla oss till den. Den hos Hyltebruks Digidelcenter livesändes på Facebook och går att se i efterhand.

Den här bloggtexten är en mix av lite av det jag sagt, diskussionerna som följt på mina föreläsningar och lite nya funderingar som uppstått i kölvattnet av dem. Några av tankarna har jag redan berört i Digitalsamtal, och därför också några länkar till podden. Var och en av underrubrikerna är egentligen värd ett eget, längre blogginlägg. Och så blir det säkert vad det lider.

Men nu i kortformat.

(Om nu 13000 tecken är kort.)

Digitaliseringen finns inte

En viktig utgångspunkt för diskussionen om digitalisering är att slå fast att digitaliseringen inte finns. Det finns inte en digitalisering, i bestämd form singular. Det finns många olika aspekter av digitalisering, och vi behöver förhålla oss till dem som separata saker.

Varför är det viktigt? Av den enkla anledningen att digitalisering ser väldigt olika ut i ett sågverk, på ett äldreboende och i ett tonårsrum. Om vi i tanken och i samtal försöker samla alla dessa olika former av digitalisering under ett enda paraplybegrepp och sen försöker ta ställning till om Digitaliseringen (bestämd form singular, här till och med med stort D) är bra eller dålig, viktig eller oviktig, lätt eller svår, då kommer vi aldrig hamna rätt. Var och en av oss kommer att lasta begreppet Digitaliseringen med olika idéer om vad det är och därmed diskutera den utifrån helt olika utgångspunkter.

Att tänka på och diskutera olika former av digitalisering gör det möjligt att på ett mer relevant sätt förhålla sig till de olika typernas styrkor och svagheter, möjligheter och utmaningar.

(Digitalsamtal #172 – Det finns inte en Digitalisering med stort D.)

Digitalisering är inte teknik

Jag tror också att det är viktigt att särskilja den underliggande tekniken från tillämpningen. En anledning är att det gör det möjligt att bättre förstå hur nyttan av digitalisering uppstår, och varför viss digitalisering är problematisk.

Det går inte att titta på ett lyckat digitaliseringsprojekt och tro att det ska gå att upprepa bara för att man väljer att använda samma verktyg. ”Om allt du har är en hammare så ser allt ut som en spik.” Ska man lyckas med ett digitaliseringsprojekt går det inte att börja med att gräva i verktygslådan och se vad man har. Man måste börja med att fundera på vad målet är, och sen skaffa en verktygslåda som gör det möjligt att bygga en lösning som tar en närmare det.

Men det omvända gäller också: Om vi tänker på tekniken som en verktygslåda blir det uppenbart att det är vad vi människor väljer att göra med verktygen som spelar roll. Med en hammare går det att bygga fantastiskt nyttiga saker. Men det går också att bygga sånt som orsakar problem och skada på både samhälle och för enskilda individer. Det går det däremot inte att skylla hammaren för. Att ett verktyg som maskininlärning kan ge fördomsfulla system är inte en anledning att döma ut maskininlärning rent generellt. Och det här är ytterligare ett argument för varför vi måste prata om olika former av digitalisering, istället för Digitaliseringen.

Om vi utgår från en Digitalisering och är rädda för fördomsfull maskininlärning, då finns en risk att vi väljer bort alla positiva tillämpningar av tekniken för att undvika baksidorna. Och det tror jag vore olyckligt. Mänskligheten står inför många stora utmaningar, och många av dem kommer vi kunna lösa med hjälp av digitala verktyg. Kolla gärna på seminariet Schyssta algoritmer – människans bästa vän? från Almedalen 2018. Vinnovas generaldirektör Darja Isaksson är en av paneldeltagarna. Hon lyfter diskussionen från att handla om enskilda algoritmer, till tekniktillämpning mer generellt. Och konstaterar att schyssta algoritmer är att se till att tekniken används där den gör nytta för människor.

Sen tror jag att det kan finnas verktyg i den digitala verktygslådan som så ofta används i problematiska tillämpningar att användningen av dem måste begränsas, kanske till och med förbjudas. Men oftast tror jag att det är tillämpningen inte tekniken i sig som vi bör fundera kring när skruvar på regelverk och lagstiftning.

(Digitalsamtal #188 – Så får artificiell intelligens fördomar.)

Fler röster behövs i samtalet

Att det inte går digitalisering som enbart teknik innebär också att fler än tekniker måste vara delaktiga i samtalet om tekniken och dess användning. Just nu rusar utvecklingen av självkörande bilar framåt. Ingenjörer hos alla fordonstillverkare är dem som bäst förstår hur en bil ska bli självkörande. Men det är inte troligt att de också är bästa på att förstå vilka konsekvenserna av självkörande fordon blir.

På många håll och på många nivåer runt om i landet behöver de som planerar den fysiska infrastrukturen fundera på vad självkörande bilar gör med behovet av parkeringsplatser och motorvägar. Inom sjukvården behöver man också fundera på vad självkörande bilar kommer att få för konsekvenser. Färre olyckor är ett av de drivande argumenten bakom teknikutvecklingen. Färre trafikskadade på akutmottagningar runt om i världen, alltså. Men en sökning på ”self driving cars organ donation” visar på ett möjligt dilemma: Färre trafikolyckor innebär färre organ att transplantera. Vad innebär det för sjukvårdens rutiner för att välja mottagare i en transplantation? Får det konsekvenser för den illegala handeln med organ?

Redan i utvecklingen av teknik finns det därför all anledning att inkludera så många kompetensområden som möjligt, för att på bästa möjliga sätt förstå både positiva och negativa konsekvenser.

Men det tvärdisciplinella gäller också i tillämpningen. Jag hör att digitalisering i många verksamheter fortfarande ses som ett teknikprojekt, och därför många gånger hamnar på bara it-chefen och it-avdelningen att hantera. Men en it-chef eller en it-tekniker har inte nödvändigtvis den detaljförståelsen för hur det ser ut ute i verksamheten. Vilka problem som finns att lösa, vad kärnuppdraget faktiskt är.

Rapporten The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, som vintern 2018 publicerades av forskare från 14 institutioner, lyfter bland annat fram bristande teknikförståelse och teknikintresse hos lagstiftarna som en stor utmaning. En annan risk lyfts är att de som utvecklar tekniken är ovilliga att diskutera teknikens problem.

Det är ofta affärsmodellen som skaver

Föreläser man om digitalisering är det just nu omöjligt att inte hamna i diskussioner om personlig integritet, distraktioner och skärmtid. Men också här tror jag att det är viktigt att fortsätta hålla isär underliggande teknik från tillämpning.

Jag läser just nu boken  The Age of Surveillance Capitalism av Shosanna Zuboff. Den handlar om hur data har blivit en viktig råvara i en tid när annonsfinansiering är det viktigaste och vanligaste sättet att bygga en affärsmodell för konsumenttjänster. Men i boken blir det också uppenbart att det är just affärsmodellen som är det stora problemet. Eftersom individdata är så viktig för den görs intrång i den personliga integriteten, därför överutnyttjas notifieringarna i mobilen för att få användarna att plocka upp telefonen och därför hamnar vi också i diskussionen av skärmtid.

Vem ska hjälpa barnen att få en sund relation till sina skärmar?

Mobiltelefoner kan vara oerhört distraherande, med ständigt plingande notifieringar. Om det tror jag att vi alla kan vara överens.

Det går också att sträva mot en framtiden med färre digitala distraktioner. Men här och nu måste vi förhålla oss till verkligheten som den faktiskt ser ut. Högljudda debattörer låter allt för ofta, enligt min åsikt, diskussionen om skolans digitalisering handla om skärmtid istället för undervisningens innehåll. (Se där, ett konkret exempel på problemet med Digitaliseringen som samlingsbegrepp!)

För det första tycker jag att det är ett stort problem att innehållet i de nya styrdokument som började gälla för grundskolan 2018 reduceras till att handla om skärmarnas vara eller icke-vara i klassrummen. Skolan ska ta sig an digitalisering på väldigt många olika sätt, där mycket inte alls handlar om vilka verktyg som eleverna ska använda, utan vad de ska lära sig.

För det andra så kan man fundera på var barnen ska få lära sig hantera distraktionerna i mobiltelefonen om inte i skolan. Jag har aldrig hört en motståndare till mobilförbud som menar att telefonerna ska få användas hur som helst i klassrummen, att det ska vara okej att spela Fortnite på mattelektionen och skrolla flödet i Instagram på kemin. Däremot att telefonen kan användas som ett verktyg när det passar. Och när det inte passar, då ska den ligga i ljudlöst läge i jackfickan eller väskan. Om inte eleverna i skolan får lära sig de verktyg och inställningar som faktiskt finns för färre och minskade distraktioner i mobilen, var ska de lära sig om dem då? Är det rimligt att utgå från att de elever som har störst problem att låta telefonen ligga när den inte behövs i skolarbetet kommer lära sig det på egen hand utanför skoltid?

Den personliga integriteten

Den personliga integriteten. Jag pratade om den i veckans föreläsningar, och den kom flera gånger upp i diskussionerna efteråt.

Jag tycker att det här är en svår nöt.

Å ena sidan är den personliga integriteten viktig, av oerhört många anledningar. Till exempel så håller alla de här argumenten för ett starkt skydd av den personliga integriteten som jag spaltade upp i en text 2015 fortfarande. I min yrkesutövning som journalist är integriteten viktig som en del i källskyddet. (Ett av de senaste avsnitten av podden Recode/Decode är för övrigt väldigt intressant lyssning på just det temat: Whistleblowers have never been more important — or more at risk, says Whistleblower Aid CEO John Tye.)

Å andra sidan så har vi till exempel hur artificiell intelligens och maskininlärning öppnar dörren till allt bättre diagnos- och behandlingsmetoder. Men AI och ML är datakrävande lösningar, och i fallet med sjuk- och hälsovård så är det ofta data om enskilda individer som behövs.

Hur viktar vi rätten till personlig integritet mot möjligheten att få en tidig och korrekt diagnos på ett potentiellt livshotande tillstånd?

(Digitalsamtal #198 – Internetkunskap med fokus på integritet och #194 – Tekniken i akutsjukvårdens frontlinje.)

De etiska konsekvenserna när teknik som väljs bort

Den offentliga debatten kring digitalisering handlar väldigt mycket om konsekvenserna, inte minst de etiska, av den teknik vi väljer att använda. För att återvända till de självkörande bilarna så har en populär tankelek varit att fundera över hur en självkörande bil kommer att välja vem den kommer att köra ihjäl när en olycka är omöjlig att undvika.

Jag tror att det ofta kan vara nog så viktigt att göra den omvända tankeleken: Om vi låter bli att använda den här tekniken, vilka konsekvenser får det? Vem drabbas om vi inte ersätter en nuvarande, mänsklig och analog process, med en digital? Vilka kommer att drabbas av trötta, påverkade eller stressade mänskliga bilförare?

Framtiden finns inte heller

Jag inledde det här inlägget med att konstatera att Digitaliseringen inte finns. Det samma går att säga om framtiden. Den finns inte heller. Inte i bemärkelsen att den är förutbestämd.

Vi kan alla vara med och påverka hur den blir. Är vi tekniker, genom de lösningar vi är med och bygger. Är vi lagstiftare, genom de regelverk vi sätter upp. Är vi beslutsfattare, genom den teknik vi väljer att implementera. Är vi användare, genom hur vi väljer att utnyttja tekniken.

Sex frågor till dig

Den här veckan har också gett upphov till några frågor, sex stycken närmare bestämt, som jag ställde till Digitalsamtals lyssnare i onsdags. Du som läser det här får gärna också svara på dem:

  • Hur pratar ni om digitalisering i din verksamhet – med breda penseldrag eller väldigt konkret?
  • Vilka kompetenser är med i diskussionerna om digitalisering – är det tekniker, verksamhetsansvariga, personal, användare, andra grupper?
  • Är diskussionerna i första hand fokuserade på tekniken – eller på vad det är ni vill åstadkomma med hjälp av tekniken?
  • Hur pratar ni om konsekvenserna av digitaliseringen – som ett direkt resultat av den underliggande tekniken eller hur den används?
  • Hur pratar ni om konsekvenserna av att avstå från att digitalisera?
  • Hur diskuteras kraven på de digitaliserade processerna – finns det förväntningar på att de ska vara felfria eller görs jämförelser med hur väl dagens processer fungerar?

Provtänker: Vad är etiskt att välja bort?

Publicerad 24 september, 2019

Skylt med texten "one way"

Vid det här laget är det uppenbart att alla nya möjligheter till datainsamling och dataanalys gör att vi kan dra slutsatser och lärdomar om bland annat mänskligt beteende på ett sätt som tidigare inte gått. Halvvägs in i Shoshana Zuboffs bok The Age of Surveillance Capitalism har jag börjat fundera på vilka möjligheter till kunskap som är etiska att välja bort.

The Age of Surveillance Capitalism är en tjock bok. Den väcker många tankar om digitalisering och samhälle som jag med all säkerhet kommer att återkomma till under hösten och vintern. Där jag är i boken just nu skriver hon bland annat om de kritiserade experiment som Facebook gjorde för några år sedan, då man testade att skruva vissa användares flöde åt det mer negativa hållet medan andra Facebook-användare fick se mer positiva statusuppdateringar från vännerna.

Kritiken handlar bland annat om att Facebook utförde de här försöken utan att användarna kände till dem. Den kretsar också kring Facebooks möjlighet att utnyttja den här typen av datainsamling och dataanalys för att på olika sätt påverka användarnas tankar och beteenden åt olika håll.

Men oavsett vad man tycker om hur Facebook genomförde det här och liknande experiment, och hur kunskaperna i teori och praktik kan utnyttjas finns det ett viktigt principiellt resonemang att föra här:

Digitaliseringen ger oss nya möjligheter att samla in och analysera data. Det gör det möjligt att lära nya saker, om människors beteenden och om annat.

Det går att vända och vrida på det här på flera olika sätt.

En ingångspunkt, den som kanske är den vanligaste: Var går gränsen för vilken data som är etiskt möjlig att samla in – och vilka analyser av den är vi bekväma med?

En annan ingångspunkt, som man inte hör lika ofta: Var går gränsen för vilken data vi kan låta bli att samla in – och vilka analyser kan vi inte med gott samvete avstå från att göra?

Vi pratar ofta om de etiska aspekterna av de teknikval som görs. Men var är diskussionen om etiken kring den teknik som väljs bort? I Almedalen arrangerade forskningsinstitutet RISE 2018 en paneldebatt under rubriken Schyssta algoritmer – människans bästa vän? Vinnovas generaldirektör Darja Isaksson var med i panelen, och hon lyfte frågan från enskilda tillämpningar till ett systemperspektiv. I en artikel i IVA-aktuellt hösten 2018 sammanfattade jag hennes resonemang så här:

Eftersom mänskligheten kommer att behöva artificiell intelligens för att lösa några av det stora globala utmaningarna – som klimatfrågan, matförsörjning och hållbara transporter – är ”schyssta algoritmer” också att se till att tekniken verkligen används där den gör nytta.

Själv famlar jag efter riktigt bra svar på de här frågorna. För det är ju väldigt lätt att tycka att teknik ska användas till bra saker och inte till dåliga. Men det är svårt att säga vad som är bra och vad som är dåligt.

Det är uppenbart att det som så många gånger är enkelt att måla upp verkligheten som svartvit – ”datainsamling är integritetskränkande och dataanalys gör det möjligt att påverka oss på massor av dåliga sätt” – när den i själva verket är full av gråskalor – ”viss data är givetvis integritetskänslig, men för samhällets bästa måste vi tillåta att den används för just den här typen av analys”.

Men jag tror att en sak är uppenbar. Vi måste sluta diskutera teknikens möjligheter utifrån de problematiska tillämpningar vi reagerar på idag. Och i stället fundera på hur samma teknik kan användas till andra saker.

(Vilket för övrigt knyter an till en annan fråga som jag grubblar på, men som får vänta till en annan gång: Just nu ställs ofta personlig integritet i första rummet. Men är den personliga integriteten alltid det mänskliga värde som ska prioriteras? Och i så fall, vilken aspekt av personlig integritet? Men, som sagt, det får bli en annan gång.)

Foto: Nick Tiemeyer.

« Föregående sida
Nästa sida »

Copyright © 2022 · Monochrome Pro på Genesis Framework · WordPress · Logga in