Kvalitet eller kvantitet – hur använder du generativ AI? #

Hej!

Det mest intressanta jag läst i veckan är The Guardians text om hur beslutsfattande i militären över tid blivit allt mer datadrivet och automatiserat. Den tar sin utgångspunkt i USAs bombning av en flickskola i början av kriget och diskussionen om Claudes roll i det felaktiga beslutet. Och efter en historisk exposé som bland annat berättar om hur USAs militär redan under kriget i Vietnam använder analys av insamlad sensordata, bland annat ljud från tusentals mikrofoner upphängda i träd, landar texten i en slutsats:

Someone decided to compress the kill chain. Someone decided that deliberation was latency. Someone decided to build a system that produces 1,000 targeting decisions an hour and call them high-quality. Someone decided to start this war. Several hundred people are sitting on Capitol Hill, refusing to stop it. Calling it an “AI problem” gives those decisions, and those people, a place to hide.

Beskrivningen av hur artificiell intelligens och andra typer av dataanalys under decennier har snabbat på beslutsfattandet i militären påminde mig om en text av Cory Doctorow som jag läste i december, The Reverse-Centaur’s Guide to Criticizing AI. Och här behöver jag citera lite längre:

If my Kaiser hospital bought some AI radiology tools and told its radiologists: “Hey folks, here’s the deal. Today, you’re processing about 100 x-rays per day. From now on, we’re going to get an instantaneous second opinion from the AI, and if the AI thinks you’ve missed a tumor, we want you to go back and have another look, even if that means you’re only processing 98 x-rays per day. That’s fine, we just care about finding all those tumors.” [...]

The market’s bet on AI is that an AI salesman will visit the CEO of Kaiser and make this pitch: “Look, you fire 9/10s of your radiologists, saving $20m/year, you give us $10m/year, and you net $10m/year, and the remaining radiologists’ job will be to oversee the diagnoses the AI makes at superhuman speed, and somehow remain vigilant as they do so, despite the fact that the AI is usually right, except when it’s catastrophically wrong.” [...]

This is a reverse centaur, and it’s a specific kind of reverse-centaur: it’s what Dan Davies calls an “accountability sink.” The radiologist’s job isn’t really to oversee the AI’s work, it’s to take the blame for the AI’s mistakes.

När jag istället vänder blicken till min egen användning av generativ AI så har jag funderat mycket på det här: När använder jag tekniken för att spara tid, och när använder jag den för att höja kvaliteten på det jag gör? Jag landar ofta i att det är svårt att separera de två från varandra: Genom att språkmodellerna kraftigt snabbar på vissa processer så finns det absolut en aspekt av tidsbesparande. Som när jag itererar på rubriker eller får hjälp av en “AI-redaktör” som ger mig feedback på mina texter. Men jag är inte säker på att jag egentligen lägger mindre tid på att komma på rubriker eller slipa på formuleringar, eller om det som faktiskt händer är att jag få mer gjort på den tid jag känner att jag kan lägga på att en text faktiskt ska bli så bra som möjligt. Det jag får tillbaka från det promptandet resulterar i mer arbete för mig, men som oftast gör texten bättre. Och då är det snarare en kvalitetsförbättring än en tidsbesparing?

Men sen gör jag ju mer med språkmodellerna, som att låta dem fungera som researchassistenter. Och där känner jag ibland att jag hamnar nära att bli det som Doctorow kallar för en reversed centaur: Materialet som chattbotten samlar in och analyserar medan jag gör annat är inte sällan gigantiskt, och det kräver en hel del tid att gå igenom och faktagranska det. Tid man behöver ta sig, för att inte bli nästa person som publicerar rapporten med påhittade källhänvisningar och liknande missar.

Nyfiken på var du känner att språkmodellerna bidrar mest? Så en liten minienkät den här veckan:

/Anders