• Hoppa till huvudnavigering
  • Hoppa till huvudinnehåll

Anders Thoresson

  • Hem
  • Föreläsningar
  • Blogg
  • Effektivt
  • Digitalsamtal
  • Om
  • Show Search
Hide Search

Provtänkt

Provtänker: Vad är etiskt att välja bort?

Publicerad 24 september, 2019

Skylt med texten "one way"

Vid det här laget är det uppenbart att alla nya möjligheter till datainsamling och dataanalys gör att vi kan dra slutsatser och lärdomar om bland annat mänskligt beteende på ett sätt som tidigare inte gått. Halvvägs in i Shoshana Zuboffs bok The Age of Surveillance Capitalism har jag börjat fundera på vilka möjligheter till kunskap som är etiska att välja bort.

The Age of Surveillance Capitalism är en tjock bok. Den väcker många tankar om digitalisering och samhälle som jag med all säkerhet kommer att återkomma till under hösten och vintern. Där jag är i boken just nu skriver hon bland annat om de kritiserade experiment som Facebook gjorde för några år sedan, då man testade att skruva vissa användares flöde åt det mer negativa hållet medan andra Facebook-användare fick se mer positiva statusuppdateringar från vännerna.

Kritiken handlar bland annat om att Facebook utförde de här försöken utan att användarna kände till dem. Den kretsar också kring Facebooks möjlighet att utnyttja den här typen av datainsamling och dataanalys för att på olika sätt påverka användarnas tankar och beteenden åt olika håll.

Men oavsett vad man tycker om hur Facebook genomförde det här och liknande experiment, och hur kunskaperna i teori och praktik kan utnyttjas finns det ett viktigt principiellt resonemang att föra här:

Digitaliseringen ger oss nya möjligheter att samla in och analysera data. Det gör det möjligt att lära nya saker, om människors beteenden och om annat.

Det går att vända och vrida på det här på flera olika sätt.

En ingångspunkt, den som kanske är den vanligaste: Var går gränsen för vilken data som är etiskt möjlig att samla in – och vilka analyser av den är vi bekväma med?

En annan ingångspunkt, som man inte hör lika ofta: Var går gränsen för vilken data vi kan låta bli att samla in – och vilka analyser kan vi inte med gott samvete avstå från att göra?

Vi pratar ofta om de etiska aspekterna av de teknikval som görs. Men var är diskussionen om etiken kring den teknik som väljs bort? I Almedalen arrangerade forskningsinstitutet RISE 2018 en paneldebatt under rubriken Schyssta algoritmer – människans bästa vän? Vinnovas generaldirektör Darja Isaksson var med i panelen, och hon lyfte frågan från enskilda tillämpningar till ett systemperspektiv. I en artikel i IVA-aktuellt hösten 2018 sammanfattade jag hennes resonemang så här:

Eftersom mänskligheten kommer att behöva artificiell intelligens för att lösa några av det stora globala utmaningarna – som klimatfrågan, matförsörjning och hållbara transporter – är ”schyssta algoritmer” också att se till att tekniken verkligen används där den gör nytta.

Själv famlar jag efter riktigt bra svar på de här frågorna. För det är ju väldigt lätt att tycka att teknik ska användas till bra saker och inte till dåliga. Men det är svårt att säga vad som är bra och vad som är dåligt.

Det är uppenbart att det som så många gånger är enkelt att måla upp verkligheten som svartvit – ”datainsamling är integritetskränkande och dataanalys gör det möjligt att påverka oss på massor av dåliga sätt” – när den i själva verket är full av gråskalor – ”viss data är givetvis integritetskänslig, men för samhällets bästa måste vi tillåta att den används för just den här typen av analys”.

Men jag tror att en sak är uppenbar. Vi måste sluta diskutera teknikens möjligheter utifrån de problematiska tillämpningar vi reagerar på idag. Och i stället fundera på hur samma teknik kan användas till andra saker.

(Vilket för övrigt knyter an till en annan fråga som jag grubblar på, men som får vänta till en annan gång: Just nu ställs ofta personlig integritet i första rummet. Men är den personliga integriteten alltid det mänskliga värde som ska prioriteras? Och i så fall, vilken aspekt av personlig integritet? Men, som sagt, det får bli en annan gång.)

Foto: Nick Tiemeyer.

Provtänker: Flera nyanser av personlig integritet

Publicerad 19 september, 2019

Skylt med texten "Private"

”Hur många integriteter har du?” Om det känns som om frågan inte är skriven på särskilt bra svenska har du rätt. Ordet ”integritet” hör till de oräknebara substantiven. Kanske är det åtminstone en delförklaring till varför vi ofta pratar om ”personlig integritet” som om den bara är en enda sak. Men det måste vi sluta med.

Fredagen den 6 september handlade DN:s toppnyhet om webbläsartillägg som spionerar på användarna. ”Så avlyssnas och säljs hela din surfhistorik” löd rubriken på det första nyhetsuppslaget i tidningen.

Det här är ett vanligt sätt som personlig integritet diskuteras och debatteras idag: Digital datainsamling i smyg. Ofta utförd av it-jättar som Google och Facebook, även om det just i det här fallet rörde sig om mindre aktörer.

Men den som bläddrade vidare i samma DN hamnade på sidan 26, vinjetten Insidan och rubriken ”Min sambo har fått in och läst mina mejl och meddelanden”. Så kan frågan om personlig integritet också se ut. Inte insamling av ”datasmulor” utförd av mer eller mindre anonyma aktörer på nätet, utan personer i ens närhet som läser ens tankar i klartext.

Jag tror att det finns anledning att försöka hålla det här i huvudet. Att personlig integritet inte är en sak, utan många. Att den beror på sammanhang, relationer och innehåll.

Frågan om vad personlig integritet egentligen är kom upp på en av mina föreläsningar nyligen. Jag lovade att återkomma med några tankar. Det här är den texten. Valde att publicera här, och inte bara skicka till de som satt i publiken den gången, eftersom jag tycker att det här är viktiga frågor att fundera på.

Det som är uppenbart i den fysiska världen blir diffust i den digitala

I den fysiska världen är det här aspekter som vi ofta har en intuitiv känsla för. Vi förstår att det är en sak att stå på ett torg, mitt i en stor folkmassa och prata vitt och brett om vilken favoritglassen är, men en helt annan sak att en sen kväll hemma vid köksbordet prata med sin partner om hur man vantrivs med flera kollegor och nu funderar på att söka ett nytt jobb.

Sammanhanget spelar roll.

Relationen spelar roll.

Och innehållet spelar roll.

I det vi brukar kalla den fysiska världen är sammanhanget och relationerna ofta uppenbara, och därför går det snabbt att bedöma om det är ett lämpligt eller olämpligt tillfälle att ta upp innehållet till diskussion.

På nätet är sammanhang och relation inte lika uppenbara, och därför blir behovet större av att först fundera igenom hur känsligt innehållet faktiskt är.

Hur sammanhanget påverkar integriteten

Den 30 april klev Mark Zuckerberg upp på scenen på F8 2019, Facebooks årliga konferens för utvecklare. Hans presentation kretsade runt ett resonemang om att vi i den fysiska världen har offentliga platser (exemplifierade med stadens torg) och privata utrymmen (här var hans analogi våra vardagsrum). Facebook har så här långt framför allt byggts som en digital motsvarighet till det offentliga rummen. Framöver kommer utvecklingen hos Facebook kretsa mycket kring att skapa en digital motsvarighet till vardagsrummet. Det första Zuckerberg sa, efter att ha hälsat alla välkomna, var ”Today we gonna talk about building a privacy focused social platform”.

Att svenska internetanvändare börjat söka sig åt den typen av plattformar syns bland annat i statistik från Internetstiftelsen. Användningen av Messenger ökar, samtidigt som andra sätt att använda Facebook minskar. Givetvis har Facebook ännu bättre koll på den här förflyttningen, hur snabbt och i vilken omfattning den sker.

Det Zuckerberg pratade om kommer i praktiken bland annat att synas genom ett ökat fokus på just Facebook Messenger, som får en egen app för både Windows och Mac och som dessutom blir ett litet mini-Facebook i sig, med de allra närmaste vännerna. Och att konversationerna kommer att vara end-to-end-krypterade, vilket innebär att det som skickas från en användare stoppas ned i ett ”skyddande kuvert” i hens mobiltelefon eller dator, ett kuvert som bara kan öppnas av mottagarens pryl. Resultatet är att det som skickas är skyddat från avlyssning – ”från hackare, från myndigheter och från oss”, som Zuckerberg sa.

I reaktionerna på Zuckerbergs presentation såg jag någon kalla detta för ”en av största insatserna för skyddad kommunikation mellan privatpersoner någonsin”. På liknande sätt var det många som resonerade när WhatsApp fick kryptering för några år sedan: Genom att lägga till kryptering i etablerade tjänster som redan har miljarder användare blir det inte misstänkt i sig att ha en app som låter användaren kommunicera krypterat och inte behöver vi heller fundera på vad som är värt att hålla hemligt när allt blir skyddat mot avlyssning. Med appar som Signal och Wire har samma skydd mot avlyssning gått att få sedan länge, men eftersom det krävt att man installerat en speciell app har det inneburit en tröskel att börja kommunicera, att man ska komma ihåg att man har den kanalen tillgänglig och i vissa delar av världen ett problem att ha den typen av app i mobiltelefon eftersom det visar att man har något att dölja.

Hur relationer påverkar integriteten

Integritet är något vi har eller inte har i förhållande till andra. Det kan handla om andra människor, och i så fall gör det skillnad om det är personer vi känner och har förtroende för, personer vi känner men inte litar på eller om det är för oss helt okända personer. Men det behöver inte vara enskilda individer. Det kan vara myndigheter eller andra delar av det offentliga. Det kan vara företag eller andra organisationer.

För att göra det ännu mer komplext: Ibland är det relationer vi vet att vi har (som till den snokande partnern i DN:s artikel), ibland relationer vi inte är medvetna om att vi har (företagen som utvecklar webbläsartilläggen som samlar in data).

Hur data påverkar integriteten

För att diskussionen om integritet ska bli intressant och relevant räcker det inte med ett sammanhang och en relation. Det måste också finnas någon form av uppgifter, information, innehåll – jag nöjer mig med samlingsbegreppet data här – som vi antingen är bekväma att andra känner till eller som vi vill hålla för oss själva eller åtminstone begränsade till en mindre krets.

  1. Data vi är medvetna om att vi delar. Hit hör bilderna vi delar på Instagram, statusuppdateringarna du skriver på Facebook och meddelandena du skickar via SMS.
  2. Data andra samlar in om oss, det som brukar klumpas ihop i begreppet ”digitala fotspår”. Vilka webbplatser besöker du, var rör du dig i den fysiska världen, vem är du vän med på Facebook?
  3. Data om oss som skapas genom att analysera annan data som vi lämnat i från oss eller som samlats in. Här ger utvecklingen av maskininlärning och artificiell intelligens allt större möjligheter att hitta självklara eller överraskande samband i stora datamängder. Hur ser sambandet mellan bilderna du laddar upp på Instagram och din mentala hälsa ut, till exempel?

Värt att notera i sammanhanget är att påståenden om att ”data samlas in på ett anonymt sätt” har visat sig mycket svåra att leva upp till i praktiken. Även om man tror att man rensat bort de detaljer som knyter data till en viss individ är det ofta möjligt att göra den kopplingen igen, genom dataanalys.

Vilket verktyg är rätt?

Hela den här diskussionen kopplar till de vardagsråd om vardagstrygghet på nätet som jag skrev om härom veckan. Att hitta sätt att ducka för den kontinuerliga datainsamling som sker på nätet är inte alltid enkelt. En viss förståelse för vad ett webbläsartillägg är och hur de fungerar kanske gör att man kanske undviker att hamna i de problem som DN skev om den 6 september. Men mycket annat är svårt att känna till eller hantera. Som dating-apparna som läcker platsinformation.

Men med mer närliggande problem finns det mer att göra. En snokande partner går att förhålla sig till genom aktiva val av exempelvis kommunikationsverktyg och genom att se till att man har bra lösenord till sina tjänster och prylar.

I den fysiska världen handlar valet av ”verktyg” ofta om att välja plats och tillfälle för var och när vi pratar om något. På nätet är verktygsvalet egentligen lika konkret, men handlar då om e-post kontra chattapp, eller andra tänkbara kommunikationsvägar.

Slutpoäng: Integritet är komplext

Frågan om personlig integritet är komplex och mångfacetterad. Reducerar vi den till att handla om Den Personliga Integriteten, i bestämd form singular, tror jag att det finns en stor risk att vi många gånger kommer hamna snett. Vi behöver, oftare än vad vi kanske tror, ställa olika former av integritet mot varandra, men också integritet mot andra mänskliga värden som också är viktiga. Att det till exempel finns forskning som antyder att det går att ställa tidigare cancerdiagnoser genom att analysera vad människor knappar in i nätets sökmotorer, hur ska vi som samhälle förhålla oss till det?

Foto: Dayne Topkin.

Provtänker: Hur mycket ska användare behöva fundera på säkerhet och integritet?

Publicerad 18 september, 2019

Karta med kartnålar.

Under de senaste veckorna har jag ett par gånger skrivit om nätsäkerhet och integritet och vad man som enskild internetanvändare behöver bry sig om. Det finns ett eget ansvar för att göra sin nätvardag trygg. Frågan är hur långt det sträcker sig.

Säkerhetsföretaget Pen Test Partners publicerade nyligen en säkerhetsgranskning av fyra populära datingappar. Men det var inte en granskning som tog sikte på användarnamn, lösenord och den data som användarna matar in i sina profiler. I stället var det hur bra apparna skyddar användarnas fysiska plats, var de för tillfället befinner sig.

Inte vidare värst, visade det sig.

Apparna visar hur långt bort andra användare befinner sig. Men inte i vilken riktning. Därmed är tanken att uppgiften om avstånd ska ge en indikation om hur nära andra användare är, men inte avslöja den exakta platsen.

Men genom triangulering lyckades Pen Test Partners ändå räkna ut det. Triangulering innebär att man vet avståndet från en användare till tre andra punkter. Vet man det går det också att räkna ut var personen i fråga befinner sig. Via tjänsternas API:er, ett gränssnitt in i appen som programmerare kan använda, kunde säkerhetsexperterna lätt låtsas att de var på tre olika platser, samla in avståndsinformation till andra användare och sedan räkna ut var de befann sig.

I slutet av augusti gav jag fem råd som ger en tryggare nätvardag. Det är fem råd som ger en hyfsad basnivå, men som inte på något sätt hjälper till att hantera risker som den här.

I sin sammanfattning konstaterar Pen Test Partners att

this risk level is elevated for the LGBT+ community who may use these apps in countries with poor human rights where they may be subject to arrest and persecution.

För den genomsnittliga användaren av de aktuella tjänsterna ser det inte ut som om platsinformationen andra får är tillräcklig detaljerad för att kunna lista ut var man befinner sig. Det går heller inte att utgå från att en genomsnittlig användare är medveten om hur triangulering går till. Och även om den kunskapen skulle finnas går det inte att se att det via API:et är möjligt att göra vad Pen Test Partners gjorde.

Det är här jag börjar fundera på var gränsen för det egna ansvaret går och vad man kan förvänta sig att företaget som bygger tjänsten tänkt på. Pen Test Partners fortsätter i sin sammanfattning:

App makers must do more to prevent location leakage in their apps and properly communicate this risk to their users.

Som utvecklare, både i bemärkelsen ”enskild programmerare” och ”företag som tillhandahåller en tjänst”, behöver man tänka till ordentligt, göra en riskanalys å sina användares vägnar och se till att tjänsten blir säker utifrån deras situation.

Men tyvärr är det väl som många säkerhetsexperter jag intervjuat genom åren konstaterat: Det är inte bra säkerhetslösningar som lockar användare. Med begränsade resurser för utveckling är det lätt att valet hamnar mellan att bygga säkerhetslösningar som ingen ser eller funktioner som gör att tjänsten eller produkten sticker ut i konkurrensen.

Det finns också en parallell till många av de diskussioner som just nu pågår om föräldrars ansvar för sina barns teknikanvändning, att man behöver läsa på om hur data samlas in, används och delas. Men också här går det att fundera på hur långt det är rimligt och möjligt att sträcka ut det egna ansvaret.

För det första är många användarvillkor svårlästa, långa texter med krångliga begrepp.

För det andra är det inte ens om man läser villkoren självklart vilken information som faktiskt samlas in.

För det tredje, och kanske mest bekymmersamt, är att det är väldigt svårt att veta vilka slutsatser som är möjliga att dra utifrån den data som samlas in.

För varje app som ett barn vill börja använda, är det rimligt att föräldrarna ska ta sig igenom den här trestegsraketen? För varje ny uppkopplad pryl vi installerar i våra hem, är det rimligt att ta sig igenom den här trestegsraketen?

Jag tror att företagen som bygger lösningar så sakteliga är på väg att ge säkerheten ett större fokus, eftersom det börjar bli uppenbart hur hårt säkerhetsslarv kan slå mot verksamheten. Dessutom har lagstiftarna vaknat, med GDPR som det kanske främsta exemplet hittills för att flytta en del av ansvaret för dataanvändning från enskilda användare till företag och andra organisationer.

Men kring GDPR hör jag nu ofta en annan oro, om att den snävar in möjligheterna för mycket. Inte minst är detta resonemang som kommer från forskarhåll, där man ser stora möjligheter för exempelvis sjukvård och medicin i kombination med dataanalys. Men det är tillämpningar som kräver tillgång till data.

Det verkar inte som om vi hittat rätt balanspunkt mellan eget och andras ansvar för säkerhet och dataanvändning. Frågan är var den balanspunkten finns och om vi någonsin hittar den.

Foto: Thor Alvis.

Provtänker: Biblioteket som en teknisk helpdesk

Publicerad 5 september, 2019

En lång bokhylla på ett bibliotek, fylld med böcker.

Bibliotek, demokrati och hjälp att använda mobiltelefoner, skicka e-post och att skaffa BankID. Det här är ett försök att tänka högt om en av bibliotekens roller i digitaliseringen.

Den här texten skriver jag på ett tåg på väg hem från Kalmar och Oskarshamn. Första föreläsningsuppdraget efter semester var för bibliotekarier i Region Kalmar, som en del i de svenska folkbibliotekens kompetensutvecklingssatsning Digitalt först med användaren i fokus.

Ämnet för min föreläsning var digitalt självförsvar, om de verktyg och tankesätt man behöver ha koll på för hålla sina hemligheter hemliga, för att kunna vara anonym på nätet när man behöver det och de övriga råd som jag också tog upp i ett blogginlägg i förra veckan.

Men diskussionerna och frågorna kom också att handla om det ämne som återkommer varje gång jag träffar bibliotekarier: Är det bibliotekens roll att agera teknisk helpdesk åt kunder och medborgare som inte får hjälp av företag och andra myndigheter?

Min åsikt är inte ett enkelt ja eller nej, utan kräver ett längre resonemang än så.

Vad är digital delaktighet?

Jag tycker att man måste inleda med att backa tillbaka rätt långt, och börja med att fundera över begreppet ”digital delaktighet”. Vi har under flera år pratat om det, att man antingen är digitalt delaktig (och därmed ta del av det utbud av digitala tjänster och produkter som näringsliv och offentlig sektor erbjuder) eller att man inte är digitalt delaktig (och följaktligen inte använder några eller i alla fall väldigt få av de digitala möjligheter som finns).

Men är det rimligt att fortsätta använda begreppet ”digital delaktighet”?

Jag tror att det är på väg att tappa sin relevans, om det redan inte har hänt. Att vara delaktig i samhället kommer att bli (alternativt är redan) omöjligt om man inte också känner sig hemma i den digitala världen. Ska man vara delaktig i demokrati och samhälle så förutsätter det också kunskap om det digitala.

Digitalisering är bra

Att samhällsutvecklingen har gått åt det hållet tycker jag i grund och botten är något positivt. Även om ”digitalisering” i den offentliga debatten tyvärr till stor del fokuserar på problem och utmaningar får vi inte glömma alla de möjligheter som digitaliseringen för med sig. Den gör det möjligt att ställa bättre diagnoser och erbjuda bättre sjukvård, offentlig sektor kan bli effektivare och mer rättssäker, den öppnar upp för nya kommunikationsmöjligheter. Och så vidare.

Men de som inte känner sig digitala måste få hjälp att bli digitala

Utmaningen är att samhällsutvecklingen och ”det livslånga lärandet” är processer med helt olika tempo. När Internetstiftelsens årliga enkät Svenskarna och internet visar att det fortfarande 2018 är en halv miljon som aldrig använder internet och ytterligare 600000 som bara gör det sällan synliggörs en klyfta mellan dem som har förutsättningar att vara demokratiskt delaktiga och dem som inte har det.

Den här klyftan är givetvis till störst bekymmer för dem som hamnar utanför. Men den är också ett problem för alla oss andra. De som inte är digitala har inte samma möjligheter att delta i det offentliga samtalet eller ta del av information, till exempel. Men jag tror också att det går att lägga ett rent samhällsekonomiskt perspektiv på klyftan. Myndigheter måste idag i många fall ha parallella processer för samma typ av medborgarkontakt: En analog och en digital. Det ökar kostnader, riskerna för fel och annat.

Att stänga den digitala klyftan handlar alltså om enskilda individer, men också om oss alla, tillsammans för att kunna bygga ett bättre samhälle.

Tillbaka till biblioteken

Efter den här utvikningen, tillbaka till frågan: Är det bibliotekens roll att agera helpdesk?

Frågan är inte tagen ur luften. De bibliotekarier jag mötet berättar att det är så det ser ut idag. Personer som förväntas sköta bankärenden eller myndighetskontakter på nätet, som inte förstår hur de ska installera en app i mobilen eller som har problem med skrivaren vänder sig till biblioteket när de inser att banken, myndigheten eller företaget som sålde telefonen inte kan, orkar, vill hjälpa dem.

Grundskolan fick nya styrdokument förra hösten, där digital kompetens var en av de stora nyheterna. Motsvarande kompetenssatsning behöver göras också för vuxna. Eftersom behovet är nytt finns det inget självklart svar på var ansvaret för den ska hamna. Men bevisligen finns det ett förtroende för biblioteken. Och, det måste verkligen påpekas, en stark drivkraft åtminstone hos de bibliotekarier jag möter att faktiskt hjälpa till. Frågan om det är deras roll handlar inte om att de vill slippa bistå personer som behöver hjälp.

Vad bibliotekarierna vill slippa är stress, osäkerhet och frustration.

De vill ha de resurser som behövs, i tid, utrustning och kompetens, för att kunna svara på besökarnas frågor.

De vill veta vad de får och inte får hjälpa besökarna med. Många kommer med problem som drar åt det känsliga hållet, som hjälp att göra bankärenden eller kontakter med socialtjänst.

Och kommer resurserna samtidigt som de juridiska frågetecknen rätas ut, då försvinner nog en stor del av frustrationen av bara farten.

Saker och ting rör på sig

I förslaget till en nationell biblioteksstrategi som just nu är ute på remiss syns det digitala på många sätt. Som ett verktyg för biblioteken och personalen, eller som en distributionsform för det innehåll som besökarna vill ta del av. Men också skrivningar om just biblioteken som en del av den breda folkbildningen:

Biblioteken har en betydelsefull uppgift i att stärka människors medie­ och in­formationskunnighet (MIK). Biblio­teken utvecklar kontinuerligt peda­gogiska metoder för att kunna stödja både vuxna och barn i att behärska, förstå och kritiskt förhålla sig till digitalt innehåll och hur informationssökningar påverkas av sökmotorer och algoritmer. Den digitala utvecklingen går snabbt och för att kunna upprätthålla och utveckla en egen kunskap måste biblioteken satsa på kompetensutveckling i syfte att till­sammans med andra skapa bättre medie- och informationskunnighet.

Problemet, som jag ser det, är att den här skrivningen i första hand tar sikte på teknikens konsekvenser och hur vi som individer på olika sätt bör och kan förhålla oss till den. Det är viktigt. Till och med jätteviktigt.

Men det är inte allt. Och det är definitivt inte där man kan börja. Och inte heller vad mina samtal med bibliotekarier handlar om, inte de samtal som jag refererar till i den här texten. Det man berättar att man behöver hjälpa till med är betydligtmer grundläggande saker än så. Hur installerar man en app i pekplattan? Hur kommer man in på sitt Facebook-konto när man glömt bort lösenordet? Hur kommer man igång med BankID?

Personer som behöver hjälp med den här typen av grundläggande handhavandeav tekniken är också, gissar jag, rätt skeptiskt inställda till digitaliseringen och dess konsekvenser rent generellt. För att hjälpa dem att få en mer nyanserad bild av teknikens möjligheter och utmaningar behöver de först få hjälp att över huvud taget använda den.

Runt om i landet finns ett antal så kallade Digidelcenter, ofta med biblioteket som en part. Syftet är just att ge stöd och vägledning till den som behöver det. På Digidels webbplats står det att

På ett DigidelCenter ska besökare kunna få hjälp med digitala frågor, pröva teknik och ta del av aktiviteter för att öka sin digitala kompetens för att aktivt kunna välja digitala alternativ och tjänster.

2018 satsade regeringen 8 miljoner kronor på den här verksamheten. Intresset var stort, ansökningar kom in från 50 kommuner och regeringen svarade med att skjuta till ytterligare 2,2 miljoner kronor. Men i dagsläget finns inga besked om nya utlysningar för de kommuner som blev utan.

Förhoppningsvis förs diskussioner om de här frågorna och utmaningarna på många håll och nivåer. Och förhoppningsvis kan de snart landa i konkreta svar och satsningar. Det rör på sig, och åt rätt håll.

Det skulle bara behöva gå lite snabbare. Det är i alla fall den bild jag får. Väldigt intresserad av att höra tankar och åsikter från dig som läser det här!

För mer om digitalisering, bibliotek och Digidel finns det tre avsnitt av Digitalsamtal värda att lyssna på: #113 – Vad är folkbibliotekens roll i digitaliseringen, #150 – En vecka för digital delaktighet och #160 – Vad betyder digitaliseringen för biblioteket.

Provtänker: ”Helt säker” är inte ett relevant krav att ställa på självkörande bilar

Publicerad 15 augusti, 2019

Motorväg på kvällen, röda ljusspår efter bilarnas baklyktor.

Redan innan jag hann flytta högerfoten till bromspedalen har bilen påbörjat inbromsningen, på eget initiativ. Och eftersom den dessutom högljutt och med en ilsket blinkande röd färg pockade på min uppmärksamhet kan jag i efterhand inte avgöra om jag över huvud taget uppfattade den annalkande faran, eller om jag bara reagerade eftersom bilen reagerade först och lät mig veta det.

Under alla omständigheter undveks en upphinnandekrock på motorvägen mellan Uddevalla och Vänersborg. Medan jag gick ut i vänster körfält yttrade jag några väl valda svordomar över den framförvarande föraren. Hen som plötsligt saktat in för att svänga av på en av de där vändslingorna som finns för väghållningsfordon men inte är tillåten asfalt för alla oss andra.

Från årsmodell 07 till årsmodell 19

I våras bytte vi bil, från en Saab byggd 2007 till en fabriksny Ford. Skillnaderna mellan de två bilarna är givetvis många, men kanske som allra störst när det kommer till de aktiva säkerhetssystemen. Saaben hade utmärkta betyg i krocksäkerhetstester. Det som hänt under det senaste decenniet är att fordonsindustrin utvecklat lösningar som gör det möjligt att inte bara minimera skadorna om en olycka inträffar, utan att minska sannolikheten för att en olycka över huvud taget ska inträffa.

Sensorer runt om bilen samlar in omvärldsdata som analyseras och utifrån analysen fattas olika typer av beslut.

Det som hände där på motorvägen var, gissningsvis, att den framåtriktade radarn upptäckte ett objekt längre fram som inte rörde sig långsammare, att avståndet minskade snabbt och att jag genom mina kroppsrörelser (snarare uteblivna kroppsrörelser, varken rattutslag eller inbromsning) inte hade uppfattat faran. När avståndet blivit oroväckande litet fattade programkoden i bilen ett beslut, utan att blanda in mig: ”Föraren har inte koll på situationen, dags att agera!”

Och så påbörjades inbromsningen.

Oj vad långsamt 30 kilometer i timmen faktiskt är

Under de månader vi haft bilen är det enda gången den bromsat. Däremot har den vid en handfull tillfällen blinkat ilsket rött och därmed gjort oss uppmärksamma på bland annat fordon i filen bredvid som varit på väg över i vår.

Men att undvika kollisioner är inte det enda bilen hjälpt till med. Den har också funktioner för att hålla ett vakande öga på mig, min högerfot och gällande hastighetsbegränsning. En framåtriktad kamera i kombination med bildanalys hittar vägskyltarna vid sidan av vägen, och med ett knapp på ratten kan jag aktivera den automatiska hastighetsbegränsningen. Med den påslagen blir det svårt att överstiga den. Det går fortfarande med ett ordentligt tryck på gasen, om det skulle behövas, men annars stryps helt enkelt gasen när hastigheten blir för hög.

Nu är jag verkligen ingen notorisk fortkörare. 26 år med körkort utan en fortkörningsbot. Men jag kan ändå konstatera att antingen visade hastighetsmätaren i vår gamla Saab fel eller så har jag ofta legat i 35-40 på 30-sträckor. Av köerna som genast uppstår bakom mig när jag nu låter bilens datorer och inte min egen varseblivning vara det som avgör hur fort det faktiskt går är det nog fler än jag som har problem att hålla 30-gränsen.

30 kilometer i timmen är långsammare än vad jag skulle gissat. Genom att ta över kontrollen ser bilen därmed till att den framförs på ett säkrare sätt än om jag får bestämma farten.

Vilka krav är rimliga att ställa på självkörande fordon?

Det långsiktiga målet för fordonsindustrin är att få bort oss människor från ratten, och låta datorerna ta över. Det finns flera olika skäl till varför det är en bra idé. Ett av de tyngsta handlar om säkerhet. När jag skrev om teknikutvecklingen i IVA Aktuellt tidigt 2018 sammanfattades det bra i rubriken, Datorer bättre på trafikvett, och vidare i ingressen:

Människor slarvar och gör misstag i trafiken. Den nya tekniken för självkörande bilar handlar i slutänden om att automatisera trafikvett och säkerhet.

Här någonstans tycker teknikjournalisten i mig att det blir intressant att resonera om två saker: Dels vilka krav som är rimliga att ställa på självkörande fordon, dels vilka förväntningar vi kan ha på medias bevakning av omställningen från människor till datorer.

Kraven på själva tekniken först. I privata sammanhang hamnar jag ofta i diskussioner om självkörande bilar. Ett vanligt resonemang är då att man gärna sätter sig i en självkörande bil, men tidigast den dagen då tillverkaren kan garantera att den är helt säker.

Feltänkt, brukar jag säga då.

Själv kommer jag att föredra en självkörande bil så snart den är bättre än en genomsnittlig mänsklig förare. Vi får helt enkelt inte glömma vad utgångspunkten är: Om vi i dag inte hade haft några dödsoffer alls i trafiken, då hade ”helt säker” varit ett rimligt krav. Men det är ju faktiskt inte så det ser ut. Vi har dödsoffer, många, många varje år. Och en majoritet av de olyckorna orsakas av mänskliga misstag, inte av att tekniken fallerar.

(Det här är för övrigt ett generellt resonemang som går att använda i alla sammanhang där datorer kommer hjälpa till med beslutsfattande, oavsett om det handlar om bilar, sjukvård eller myndighetsutövning: Ska vi vänta med datoriserade beslut tills dess att de aldrig blir fel – eller ska vi ta hjälp av tekniken när den i genomsnitt gör bättre ifrån sig än oss?)

Och här blir det naturligt att glida över i medias ansvar. Att skriva svarta rubriker undra braskande EXTRA-vinjetter när självkörande bilar orsakar olyckor kommer gissningsvis under en period bli en journalistisk genre i sig själv. Men kom då ihåg hur dödsolyckor orsakade av människor hanteras i spalterna. Ibland stort uppslaget, om det finns något spektakulärt i olyckan. Men många gånger bara som en notis, eller kanske inte ens nämnt i tidningen över huvud taget.

Jag menar givetvis inte att rapporteringen om olyckor orsakade av det datoriserade beslutsystemen inte ska ske. Men det måste vara med sans och balans, med ett ansvarsutkrävande som riktar sig åt rätt håll och som också förhåller sig till verkligheten som den ser ut och inte som om nollvisionen redan var uppfylld.

Copyright © 2023 · Monochrome Pro på Genesis Framework · WordPress · Logga in