Läst om Anthropic och DoD #

Det är ingen underdrift att påstå att den senaste veckans stora samtalsämne i teknikkretsar är relationen mellan Anthropic och Department of Defence. Long story short: Pete Hegseth kunde inte acceptera att Anthropics vd Dario Amodei sa nej till att låta företagets modeller användas för autonoma vapen och inhemsk massövervakning. Hegseths reaktion blev att klassa företaget som en supply chain risk.

Det är komplext och fortfarande ett rörligt mål som gör det svårt att a) förstå exakt vad som händer och b) dra några slutliga slutsatserna av det. Jag har läst massor, och istället för att försöka göra en egen sammanfattning av det som hänt länkar jag istället till de bästa texterna.

Och därför skickar jag veckans brev en dag tidigare än jag brukar, eftersom det är en ganska diger läslista.

Trevlig helg!

/Anders

1. What Rights Do AI Companies Have in Government Contracts? #

Jessica Tillipsman är expert på amerikansk upphandlingsjuridik. Hennes text hjälpte mig att förstå de grundläggande förutsättningarna för relationen mellan Department of Defence och leverantörerna:

Commentators are debating whether AI companies should be able to restrict the government’s use of their technology, as if this were a novel question. It is not. Contractors restrict the government’s use of their products all the time. Whether and to what extent they can do so in any particular case depends on three things: the acquisition pathway, the contract type, and the negotiated contract terms.

2. The Adolescence of Technology #

Allt som händer nu gjorde det enkelt att prioritera en lång (lååång!) text Dario Amodei publicerade i januari och som väntat i läskön sedan dess. I den resonerar han utförligt om de risker han ser med artificiell intelligens. Har du inte tid att läsa hela så är det tredje partiet, det jag länkar till, direkt kopplat till ställningstagandet gentemot Department of Defence:

There need to be limits to what we allow our governments to do with AI, so that they don’t seize power or repress their own people. The formulation I have come up with is that we should use AI for national defense in all ways except those which would make us more like our autocratic adversaries. […] In the list at the beginning of this section, two items—using AI for domestic mass surveillance and mass propaganda—seem to me like bright red lines and entirely illegitimate.

The other two items—fully autonomous weapons and AI for strategic decision-making—are harder lines to draw since they have legitimate uses in defending democracy, while also being prone to abuse. Here I think what is warranted is extreme care and scrutiny combined with guardrails to prevent abuses.

(När du hinner tycker jag att du också ska läsa Machines of Loving Grace från 2024. I den målar Amodei upp den positiva sidan han ser med AI på sikt.)

3. Clawed #

Under Trumps första månader i Vita Huset under den här presidentperioden ledde Dean W Ball arbetet med det som blev Trumps AI Action Plan. Han är inte imponerad över situationen och resonerar bland annat kring vilka signaler den skickar till näringslivet och förutsättningarna att driva innovationsföretag i USA.

The Anthropic-DoW skirmish is the first major public debate that is truly about where the proper locus of control over frontier AI should be. Our public institutions behaved erratically, maliciously, and without strategic clarity. Our political leaders conveyed little understanding of their own actions, to say nothing of the technology and its stakes. They got off on an extraordinarily bad footing, and it is hard to imagine them ever recovering, because they do not seem to care about improvement.

4. Anthropic’s Statement To The ‘Department Of War’ Reads Like A Hostage Note Written In Business Casual #

Mike Masnick konstaterar att det anmärkningsvärda här inte är Anthropics ståndpunkt utan administrationens reaktion:

The real story is that they feel the need to act this way. […] Under any previous administration—Democrat or Republican—a company telling the Defense Department “we’d prefer our AI not make autonomous kill decisions without human oversight” would have been a mostly unremarkable negotiating position. It might have been a deal breaker for that particular contract. The two sides might have parted ways.

(Och även här ett tips om en lite äldre text: Fascism For First Time Founders.)

5. AI Just Entered Its Manhattan Project Era #

I förlängningen av några av resonemangen i artiklarna ovan ligger den slutsats som Alberto Romero landar i:

So, what you should update on is not that OpenAI won and Anthropic’s dead—or, depending on who you ask, the exact opposite—but something bigger: that you cannot predict the future of AI as a technology by assuming the influence of external actors like the DoD or geopolitical events like the war on Iran can be dismissed as a negligible term in an otherwise pristine equation that you extrapolate as lines on a chart. The entire AI forecasting apparatus—scaling laws, capability timelines, benchmark extrapolations, and so on—operates as if AI progress is a physics problem with logistical and financial constraints. Welcome to the real world. There always were forces lurking in the shadows, waiting to disrupt those equations. Those forces are now activated.

6. The Pentagon’s bombshell deal with OpenAI, explained #

Flera av texterna som jag läst tar så klart också upp sakfrågan kring vad det faktiskt är Amodei säger nej till, autonoma vapen och inhemsk massövervakning, och formuleringar som “lawless use”, med påminnelser om Snowdens avslöjanden:

The agreement states that “handling of private information will comply with the Fourth Amendment, the National Security Act of 1947 and the Foreign Intelligence and Surveillance Act of 1978, Executive Order 12333, and applicable DoD directives requiring a defined foreign intelligence purpose.” It adds that “the AI System shall not be used for unconstrained monitoring of U.S. persons’ private information as consistent with these authorities.” Notably, all of these laws and regulations were on the books prior to the Snowden revelations — and they didn’t prevent the government from collecting the phone records of millions of Americans.

Anil Dash lyfter ett employer branding-perspektiv som det säkert också ligger en hel del i (se även det öppna brev som publicerats på We Will Not Be Divided och undertecknats av anställda från många av de största AI-företagen):

If you’re Dario, and you want to keep your employees happy, and maintain your brand as the AI company that doesn’t suck, and you don’t want to blow up your roadmap, and you don’t want to have to hire a bunch of pricey procurement consultants, and you can stay focused on your core enterprise market, and you can take the right moral stand? It’s a pretty straightforward decision. It’s almost, I would suggest, an easy decision.