Code of Practice eller Code of Trouble?
EU håller på att införa sin AI Act, en omfattande lagstiftning som för första gången reglerar artificiell intelligens efter risknivå . Vissa användningar förbjuds helt (t.ex. social poängsättning) och andra klassas som högrisk med krav på transparens, dokumentation och tillsyn. För att hjälpa företagen att anpassa sig presenterade EU-kommissionen i juli 2025 en frivillig uppförandekod för generativa AI-modeller - Code of Practice for General Purpose AI - strax innan de första AI Act-reglerna började gälla den 2 augusti 2025. Tanken med kodexen är att ge AI-leverantörer en slags bruksanvisning för hur de ska uppfylla lagen, i utbyte mot mindre administration och större rättssäkerhet för de som ansluter sig.
Men alla techjättar är inte med på noterna. I somras meddelade Meta att de vägrar skriva under den frivilliga kodexen. Meta anser att dokumentet, som togs fram av oberoende experter och branschföreträdare, introducerar nya juridiska oklarheter och går långt utöver vad AI Act kräver. “Europa är inne på fel spår vad gäller AI,” skrev Metas policychef Joel Kaplan i en kommentar, och hävdade att EU-reglerna håller på att bli ett övertramp som kan kväva utvecklingen av avancerade AI-modeller i Europa. I kontrast har rivalerna OpenAI och Google valt att ställa sig bakom kodexen - om än inte utan invändningar. Google anslöt sig formellt dagarna före att de nya reglerna trädde i kraft, men betonade i ett uttalande att man fortfarande är oroad över att AI Act och kodexen “riskerar att bromsa Europas utveckling och användning av AI”, särskilt om avvikelser från EU:s upphovsrättslag, extra byråkrati som fördröjer godkännanden eller krav som röjer företagshemligheter läggs på företagen. OpenAI å sin sida tillkännagav sin avsikt att följa den europeiska kodexen och framhöll samtidigt vikten av att EU nu fokuserar på AI-innovation i stället för enbart reglering.
Denna splittring bland de amerikanska AI-giganterna - Meta som säger blankt nej, Google som motvilligt säger ja, och OpenAI som försöker vara diplomatiskt - illustrerar den pågående dragkampen mellan Europas regleringsambitioner och teknikbolagens innovationsdriv. I denna artikel följer vi upp turerna kring EU:s AI-regelverk och hur de stora aktörernas reaktioner speglar en större geopolitisk balansgång inom AI.
Meta
Att Meta ställer sig utanför EU:s frivilliga AI-kodex är anmärkningsvärt, eftersom de flesta andra ledande AI-leverantörer har valt att skriva under. Google, Amazon, Microsoft, IBM, Anthropic och den franska startupen Mistral AI finns bland undertecknarna. Meta är alltså relativt isolerade i sitt ställningstagande. Frågan många ställer sig är: varför vill inte Facebooks och Instagrams moderbolag vara med på EU:s spelplan för AI?
Enligt Joel Kaplans uttalande anser Meta att EU:s uppförandekod innehåller krav som saknar tydlig rättslig grund och går utöver det som beslutats i AI Act. Kaplan varnade för att EU håller på att välja en väg som kan hämma innovation: Kodexen skulle “strypa utvecklingen och driftsättningen av de främsta AI-modellerna i Europa” och dessutom “lamslå europeiska företag” som vill bygga tjänster ovanpå dessa modeller. Med andra ord menar Meta att om EU lägger på extra lager av reglering riskerar man att slå undan benen på AI-ekosystemet i Europa - både för utvecklarna av stora språkmodeller och för alla startups och verksamheter som använder dem.
Meta kallar EU:s implementering för ett “overreach” och argumenterar att kodexen inte bara preciserar lagen utan inför nya förpliktelser som industrin inte haft möjlighet att förbereda sig på. Till exempel invänder Meta mot att kodexen kom så tätt inpå lagens ikraftträdande (knappt tre veckor före 2 augusti) och att företagen hade behövt mer tid för att anpassa sig. De ståndpunkterna har inte Meta ensam om utan redan tidigare har en rad techbolag, däribland Alphabet (Google), Microsoft och även europeiska Mistral AI, protesterat mot AI Act och till och med uppmanat EU-kommissionen att skjuta upp tidsplanen för reglernas införande. Kommissionen har dock hittills stått fast och vägrat försena AI Act, trots påtryckningar från branschen. Att Meta nu demonstrativt nobbar den frivilliga uppförandekoden kan ses som en fortsättning på den konflikten, där industrin testar gränserna för hur långt EU är villigt att gå.
Samtidigt finns det tunga politiska och affärsmässiga överväganden bakom Metas drag. Företaget har investerat stort i öppna AI-modeller (Llama 2 m.fl.) och positionerat sig som en förespråkare för ett mer öppet AI-ekosystem. Vissa analytiker menar att Meta kan oroa sig för att EU-kodexens krav på insyn och ansvar skulle göra det svårare att släppa öppna modeller eller dela dem fritt, av rädsla för juridiskt ansvar. Meta måste ta med i beräkningen att AI Act trots allt är lag och de måste i längden uppfylla dess minimikrav ändå, men genom att inte skriva under den frivilliga kodexen behåller de friheten att själva tolka och uppfylla lagen på sitt sätt, istället för att lova följa varje punkt i EU:s ”Codex of Trouble”. Kort sagt spelar Meta ett högt politiskt spel: man markerar mot Bryssel i hopp om att inte kvävas av regelverket, men riskerar samtidigt ökad granskning. EU har redan klargjort att de som inte frivilligt ansluter sig kan räkna med fler inspektioner och skarpare tillsyn framöver.
Kodexens krav i praktiken
EU:s uppförandekod för generativ AI är tänkt att omvandla de allmänna skrivningarna i AI Act till konkreta rutiner. Kodexen har tre huvuddelar: transparens, upphovsrätt samt säkerhet och skydd för avancerade modeller. Men vilka specifika krav ställer den som fått Meta att slå bakut? Några centrala punkter är:
Dokumentation och transparens Företag som utvecklar stora AI-modeller förväntas ta fram omfattande modellkort eller dokumentationsformulär där de redogör för modellens egenskaper, begränsningar, träningsdata, prestanda och potentiella risker. Denna dokumentation ska dessutom uppdateras löpande allteftersom modellen ändras eller nya insikter uppkommer. Syftet är att användare och tillsynsmyndigheter ska ha insyn i hur modellen fungerar och vilka risker som kan finnas. För aktörerna innebär det ett betydande administrativt åtagande och i värsta fall att de behöver avslöja information de helst hade behållit som affärshemligheter (t.ex. exakt vilka data som används eller detaljer om modellens arkitektur).
Respekt för upphovsrätt Kodexen förbjuder uttryckligen AI-utvecklare att träna sina modeller på piratkopierat eller olagligt innehåll. Den kräver också att företagen lyder begäran från rättighetsinnehavare som inte vill att deras verk ska användas i träningsdatan. Detta innebär i praktiken att om en nyhetsorganisation eller en konstnär säger “ta bort mitt material ur era datasets”, så förväntas AI-leverantören att uppfylla det. Här går kodexen potentiellt längre än nuvarande upphovsrättslag. EU har visserligen infört vissa undantag för data mining, men AI-företag har hittills opererat i en gråzon där de sopat in stora mängder internetdata. Kravet att aktivt filtrera bort olicensierat material och hantera opt-out-förfrågningar kan kräva helt nya processer och verktyg hos bolagen.
Säkerhet och riskhantering För de allra mest avancerade “frontier-modellerna” som bedöms ha systemisk risk innehåller kodexen en särskild avdelning om Safety & Security. Denna del uppmanar leverantörerna att genomföra grundliga riskbedömningar och implementera state-of-the-art-åtgärder för att minimera risken att deras AI-system används skadligt eller spårar ur. Det kan röra sig om tester för att upptäcka bias och diskriminering, mekanismer för att stoppa farligt användande, och beredskap att snabbt åtgärda säkerhetsbrister. Även om få ifrågasätter målet (ingen vill släppa lös en farlig AI) så kan omfattningen av det förväntade säkerhetsarbetet vara avskräckande, särskilt om kraven upplevs som vaga eller ouppnåeliga rent tekniskt.
Sett till ovanstående är det tydligt att EU eftersträvar högre insyn, ansvar och etiskt ansvarstagande hos AI-utvecklarna. Men för företagen innebär varje sådan punkt också ökade kostnader, potentiell byråkrati och risk för att tappa konkurrensfördelar. En kärnfråga rör balansen mellan transparens och företagshemligheter. Google noterade i sitt uttalande att kravet på öppenhet inte får gå så långt att man tvingas avslöja känslig information som undergräver affärsmodellen eller intellektuella tillgångar. Om AI-företag måste redovisa varenda detalj om hur deras modeller är tränade, kan det i praktiken betyda att konkurrenter lättare kan kopiera eller reverse-engineera deras system, något de givetvis vill undvika.
Även upphovsrättsdelen är kontroversiell. Många AI-modeller, som OpenAI:s GPT-4 eller Metas Llama, tränas på gigantiska textmängder från nätet. En del av dessa data inkluderar upphovsrättsskyddade verk (böcker, artiklar, bilder) som samlats in utan uttryckligt tillstånd. Fram tills nu har AI-företagen lutat sig mot undantag i lagstiftningen för text- och datautvinning. Men AI Act pressar dem mot en hårdare linje: inget piratmaterial, och respekt för kreatörers vilja att stå utanför. Google varnar för att vissa formuleringar i kodexen innebär “avsteg från EU:s egna upphovsrättslagar”, dvs att de går längre än vad lagen faktiskt kräver på pappret. Enligt Google riskerar sådana extra krav att “skada Europas konkurrenskraft” om det hämmar utvecklingen av nya modeller. om det blir för krångligt att träna AI i EU, så kommer AI att tränas någon annanstans som i USA eller Kina och Europa hamnar på efterkälken.
Ytterligare en friktion gäller tidsaspekten och byråkratin. Bolagen fruktar att EU-reglerna ska medföra “steg som fördröjer godkännanden” såsom nya kontrollmekanismer eller certifieringar som gör att lansering av en ny AI-modell i Europa tar månader av pappersarbete, medan samma modell kan släppas fritt i t.ex. USA. I en bransch där utvecklingen går i rasande fart är tiden till marknaden avgörande. Ur företagens perspektiv riskerar EU att skapa ett trögt och osäkert innovationsklimat, där man alltid måste oroa sig för regulatoriska kvarnstenar. Meta har pekat på just den risken: att europeiska AI-startups och entreprenörer kommer lida om de inte kan få tillgång till de bästa modellerna eller om de fastnar i regelverket.
EU-kommissionen försöker å sin sida övertyga industrin om att kodexen hjälper dem snarare än stjälper dem. De som skriver under lovas som sagt minskad administrativ börda och större juridisk förutsebarhet i hur de uppfyller lagen. Kodexen togs dessutom fram i dialog med experter, så den är inte tänkt att vara orealistisk. Faktum är att Google själva medgav att den slutliga versionen av kodexen är “bättre än vad EU först föreslog”, vilket tyder på att företagens synpunkter delvis beaktats. Ändå kvarstår skepsisen. Frivillig eller ej, så upplever Meta (och sannolikt fler därtill) att EU i och med denna kodex i praktiken stiftar regler via bakdörren. Var går gränsen mellan en hjälpsam branschguide och ny bindande reglering? Den frågan lär det råda delade meningar om ett bra tag framöver.
På vems villkor ska AI utvecklas?
Kampen om EU:s AI-kodex illustrerar en större geopolitisk verklighet: Vem sätter spelreglerna för nästa generations teknik - och på vems villkor? EU har seglat upp som världens kanske mest ambitiösa tech-regulator, fast besluten att inte upprepa “vilda västern”-scenariot från sociala mediers era. AI Act är tänkt att bli den första heltäckande AI-lagstiftningen i världen, och uppförandekodexen för generativ AI är en central del i att göra den lagen fungerande i praktiken. Men reaktionerna från amerikanska bolag som Meta och Google visar att friktionen mellan Silicon Valley och Bryssel lever i allra högsta grad.
Hur den striden utvecklas kan få stor betydelse för AI:s framtid i Europa. Å ena sidan finns risken att hård reglering gör EU mindre attraktivt - om företag upplever att de inte kan lansera de bästa modellerna här, kanske de prioriterar andra marknader. I värsta fall kan europeiska användare och organisationer hamna på efterkälken om ny AI-teknik släpps i USA eller Asien först, medan EU-produkter halkar efter på grund av långa tillsynsprocesser. Meta har mer än antytt detta scenario genom sitt nej, och Googles varningar om skadad konkurrenskraft slår an samma ton. Å andra sidan skulle ett icke-reglerat AI-landskap också bära stora risker – allt från integritetsintrång till spridning av desinformation och diskriminerande algoritmer. EU försöker därför navigera mot en gyllene medelväg där man behåller teknologisk suveränitet och skyddar medborgare, utan att helt skrämma bort innovationen.
I praktiken kommer mycket att hänga på hur flexibel och samarbetsvillig båda sidor är framöver. Kommer EU att justera sina guider och regler om det visar sig att vissa krav är onödigt betungande? Kommer företagen som Meta att mjukna när AI Act väl är i full tillämpning, eller tar de strid i domstolar och via lobbyism för att lätta på kraven? En möjlig väg framåt är att EU intensifierar dialogen med branschen under implementeringen av AI Act – trots allt vill nog ingen se en repris av situationen med GDPR, där åratal av oklarheter och rättsprocesser följde. Den frivilliga kodexen kan i bästa fall bli en plattform för samarbete där företag och myndigheter successivt justerar kraven så att de både skyddar allmänheten och är tekniskt rimliga att följa. I sämsta fall förblir kodexen ett slagträ: ett dokument som vissa pekar på som överkuriosa, medan andra följer det bokstavstroget och en fragmentering uppstår.
Klart är att EU:s AI-politik nu testas skarpt. När en jätte som Meta väljer att stå utanför, sätts trovärdigheten i det “frivilliga” initiativet på prov. Samtidigt signalerar de övriga företagens deltagande att de flesta inte vågar ignorera Europas marknad eller lagstiftning. EU har historiskt haft en förmåga att exportera sina regler globalt (den så kallade Bryssel-effekten), men med AI står man inför tuffare motstånd från globala aktörer med egna agendor. Kommande månader och år, när AI Act fasas in fullt ut, får vi se hur väl EU lyckas upprätthålla sina spelregler och om “spelarna” fortsätter att följa dem eller försöker ändra dem. Den politiska odds-balansen håller på att skifta och utgången kan avgöra om Europas vision om “pålitlig AI” blir verklighet eller om den möter samma öde som Metas underskrift: ett uteblivet handslag.