Hej!
Det fortsätter vara lite oregelbunden utgivning här. På min egen blogg har det dykt upp två texter sen sist som jag vill tipsa om, båda om språkmodeller: Den ena ur ett tekniskt perspektiv, den andra om ett användningsområde där jag upptäckt att jag har stor glädje av dem.
Om du använt verktyg som ChatGPT, Claude eller Gemini har du kanske också snubblat över begreppet “kontextfönster”. Många koncept behöver man inte förstå som användare av teknik. Men vissa har så tydlig koppling till hur tekniken fungerar att nyttan blir större om man förstår grunderna. Just språkmodellernas kontextfönster placerar jag i den kategorin. Jag gör här en liknelse med en trädgårdsslang, och hoppas att det kan hjälpa dig både förstå vad kontextfönstret är och därmed också kunna få ut ännu större glädje av språkmodellerna framöver.
Och apropå glädje från språkmodeller: De är nu på god väg att få mig att överge min nyckelordsbaserade omvärldsbevakning. Istället låter jag numera en språkmodell göra jobbet, när den nyhetsvärderar mina viktigaste flöden utifrån en prompt där jag beskriver både mig själv och mina intressen.
Den omvärldsbevakningen är för övrigt ett bra exempel på det jag skrev om i årets första text: Att använda den teknik som är mogen nog till saker som skapar värde här och nu. Sättet jag byggt min AI-baserade omvärldsbevakning är inte särskilt tekniskt avancerad, men den sparar mycket tid åt mig varje dag. Här och nu.
If I need something that does have answers that can be definitely wrong in important ways, and where I’m not an expert in the subject, or don’t have all the underlying data memorised and would have to repeat all the work myself to check it, then today, I can’t use an LLM for that at all.
Ben Evans har en regel som hjälper honom att när han ska använda en språkmodell: Fundera på om en uppgift är probabilistisk eller deterministisk till sin natur och använd bara språkmodellerna till de första.
We're currently building very obedient students, not revolutionaries. This is perfect for today’s main goal in the field of creating great assistants and overly compliant helpers. But until we find a way to incentivize them to question their knowledge and propose ideas that potentially go against past training data, they won't give us scientific revolutions yet.
Thomas Wolf, medgrundare på Hugging-Face, om AI som ett verktyg för vetenskapliga genombrott och varför han tror att det kräver en ny typ av modeller.
I have been building so many small products using LLMs. It has been fun, and useful. However, there are pitfalls that can waste so much time. A while back a friend asked me how I was using LLMs to write software. I thought “oh boy. how much time do you have!” and thus this post.
I have so many ideas on small scripts that could help me a lot. But because of lacking coding skills they have never moved beyond being ideas. Until lately, when coding assistance from LLMs have turned some of them into reality.
I hope these suggestions from Harper Reed will help me take the next step, aiming for some of the more complex ideas of mine.
This isn’t brainwashing - people don’t have to internalize this or that aspect of what social media presents to them, radically changing their beliefs and their sense of who they are. That sometimes happens, but likely far more rarely than we think. The more important change is to our beliefs about what other people think, which we perpetually update based on social observation. When what we observe is filtered through social media, our understandings of the coalitions we belong to, and the coalitions we oppose, what we have in common, and what we disagree on, shift too.
Jag har så många idéer på små skript och program som skulle kunna hjälpa mig mycket. Men på grund av bristande programmeringskunskaper har de aldrig blivit mer än just idéer. Tills nu, när Claude har hjälpt mig att realisera flera av dem.
Med det här tipsen från Harper Reed, tidigare teknikchef i Obamas administration, hoppas jag kunna ta mig an mina mer komplexa idéer.
Even though there are 10,000 possible combinations, when humans get involved that equation changes dramatically.
Otroligt snygg visualisering över vanliga och ovanliga pinkoder. Var hittar du dina?
AI systems do not make mistakes in the same ways that humans do. Much of the friction—and risk—associated with our use of AI arise from that difference. We need to invent new security systems that adapt to these differences and prevent harm from AI mistakes.
Intressant resonemang om skillnaderna mellan de fel vi människor gör och de som en språkmodell gör.
Det var det hela för den här gången!
/Anders