Dags att bjuda in dina AI-agenter till medarbetarsamtal #

De flesta AI-agenter för utvecklare går att förbättra och skräddarsy. Men ett återkommande råd är att inledningsvis använda agenterna så avskalat som möjligt, och att lägga till nya funktioner allt eftersom behoven uppstår. Men hur ska jag kunna veta vad som är ett behov?

Rekommendationen för Pi är tydlig. Redan överst på agentens webbplats står det: “Pi is a minimal terminal coding harness. Adapt Pi to your workflows, not the other way around.”

Men som hobbyprogrammerare och knappt det kan jag inte påstå att jag har några etablerade sätt att jobba, och därför har det inte varit uppenbart för mig hur jag bäst ska utnyttja den här anpassningsförmågan. Principen för Pi är att be agenten själv skriva så kallade skills och extensions utifrån mina instruktioner och sin egen dokumentation.

Men vad ska jag be den om?

Svaret finns i chatthistoriken. Varje session med en AI-agent sparas i någon form av textformat, oftast så kallade json-filer:

<kopiera in några loggar>

Inte så värst läsarvänligt. Väldigt välstrukturerade filer, men verkligen inte lätta att ta till sig. Dessutom ofta väldigt, väldigt långa.

Men vilka verktyg är bra på att hantera välstrukturerade, stora textfiler?Språkmodeller och AI-agenter! När den poletten trillade ner öppnade sig också en ny möjlighet.

I helgen har jag haft mina första medarbetarsamtal med både Pi och Claude Code. Prompten har varit enkel:

I want you to read the session logs for the last 6 days and analyze them. Primarily, look for two things:

a) Are we repeating the same misstakes / bad patterns over and over again in a way that could be avoided?
b) Are there any patterns etc that could be used as a foundation for a skill och extension using Pi?

Efter att ha analyserat drygt 200 sessioner från den senaste månaden och ställt några kontrollfrågor landade Pi och Claude i var sin lista med förslag. Och det blir då uppenbart att jag visst har “workflows”, men inte sällan i form av “dåliga vanor” som delvis beror på bristande kunskap. Saker som jag själv inte var helt medveten om, men som fanns i historiken och som agenterna hjälpte mig att upptäcka.

Några grejer finns med i båda, som att jag uppenbarligen inte är en helt erfaren användare av versionshantering med hjälp av Git och att många så kallade tool calls (det vill säga att agenten kör ett skript eller använder ett verktyg lokalt på min dator) misslyckas på grund av att informationen som matas in inte är strukturerad på rätt sätt.

När det gäller mina bristande Git-kunskaper blev lösningen en extension som “döljer” komplicerade Git-kommandon bakom enkla instruktioner, som påminner mig om att skapa tillfälliga så kallade branches när jag utvecklar nya funktioner för att minska risken att jag förstör något som redan fungerar, och som då och då också förklarar för mig vad som händer för att jag successivt ska lära mig mer om hur Git fungerar.

När det gäller felformaterad input till de verktyg som agenten använder blev lösningen en extensions som kollar att allt ser rätt ut innan verktyget används. Resultatet kommer bli att färre tokens skickas till språkmodellen för att agenten ska tolka och korrigera de fel som uppstår.

Ytterligare en handfull liknande problem fanns i sessions-loggarna, där agenternas förslag till lösningar förhoppningsvis kommer att innebära att problem upptäcks och rättas innan språkmodellerna gör sitt jobb. Det här kopplar till det jag skrev om i mars, att skilja på de tillfällen då språkmodellen är lösningen eller när den hjälper till att skapa lösningen. Saker och ting som går att lösa deterministiskt, i kod, kommer spara både tid och tokens.

Så har du inte redan haft medarbetarsamtal med dina agenter, boka in ett!


Mer på temat AI-agenter och kodande: 10 Lessons for Agentic Coding

Och om att ta AI-agenter till hjälp i designprocesser: Design Systems for Agentic Engineering


Intressant reseskildring från Kina, med besök på några av de största kinesiska AI-labben. Fastnar bland annat för resonemangen om hur viktigt det är att som forskare (men i förlängningen också användare) att snabbt kunna anpassa sig till nya paradigm:

The students have a benefit of coming at LLMs with fresh eyes. Over the last few years we’ve seen the key paradigm of LLMs shift from scaling MoE’s, to scaling RL, to enabling agents. Doing any of these well involves absorbing an insane amount of context quickly, both from the broader literature and the technical stack at your company. Students are used to doing this and excited to humbly drop all presumptions about what should work. They dive in head first and dedicate their life to getting the chance to improve the models.


Annotations: 0,5123 SHA-256 366f415086451595fa62
&AI: 3955
@Anders Thoresson: 2,335 360,17 530,998 1841,2114 3956,44 4029,131 4198,393 5121,2
...