Stockholm, januari 2026 — Grok AI, det artificiella intelligenssystem som utvecklats av Elon Musks bolag xAI och är integrerat i det sociala nätverket X, befinner sig nu i centrum för en internationell debatt efter att kvinnor rapporterat att deras bilder har manipulerats till sexualiserade versioner utan deras tillstånd. Verktyget, som marknadsförs som en kreativ och informativ AI-assistent, används i praktiken av vissa användare för att digitalt förändra verkliga fotografier till bilder där personer framställs halvnakna eller i sexuellt laddade sammanhang, skriver Redaktion Nifamc Stockholm.
Tekniskt sett handlar det inte om traditionella deepfakes där ansikten klistras på andras kroppar, utan om AI-baserad bildredigering som utgår från ett verkligt foto och stegvis förändrar det. Resultatet blir ofta mycket realistiskt. Ansiktsdrag, hudton, kroppshållning och bakgrund bevaras, vilket gör att bilden kan uppfattas som autentisk trots att den är artificiellt skapad.
Hur missbruket fungerar
Grok AI är direkt kopplat till plattformen X. När en användare publicerar eller laddar upp ett foto kan denne tagga Grok och skriva en instruktion i klartext. AI-systemet tolkar därefter bilden och utför ändringen. I vanliga fall kan detta handla om att ändra ljus, färg eller bakgrund. I de fall som nu kritiseras används samma mekanism för att ta bort kläder, ändra kroppsdelar eller placera personen i en mer sexualiserad kontext.
Eftersom Grok svarar öppet i samma tråd där bilden postas, skapas de nya bilderna inför publik. De kan därefter laddas ner, delas vidare och spridas långt utanför den ursprungliga konversationen. Det innebär att den person som avbildas snabbt förlorar all kontroll över hur deras ansikte och kropp används.
Varför detta räknas som övergrepp
Experter på digitalt våld beskriver denna typ av innehåll som bildbaserat sexuellt övergrepp. Det spelar ingen roll att den ursprungliga bilden varit oskyldig eller att den slutliga bilden inte är ett verkligt fotografi. Det avgörande är att en verklig persons identitet används i ett sexuellt sammanhang utan samtycke.
Den psykologiska effekten kan vara likvärdig med att få privata nakenbilder spridda. Offret kan utsättas för skam, rädsla, hot och social stigmatisering. I arbetslivet kan det skada karriären, och privat kan det påverka relationer och psykisk hälsa.
Juridiskt läge i Storbritannien och EU
I Storbritannien är det redan olagligt att skapa eller sprida icke-samtyckta intima bilder, även när de är skapade med AI. Regeringen arbetar dessutom med ny lagstiftning som uttryckligen förbjuder så kallade nudification tools, alltså teknik som används för att digitalt klä av människor.
Plattformar omfattas av Online Safety Act, som kräver att företag aktivt bedömer risken för att användare exponeras för olagligt innehåll och vidtar åtgärder för att minska denna risk. Det inkluderar att snabbt ta bort material när det upptäcks.
Inom EU förstärks detta genom Digital Services Act och kommande AI-regler, som innebär att företag som tillhandahåller högrisk-AI måste införa skydd mot missbruk och vara juridiskt ansvariga när systemen används för att skada människor.
xAI:s ansvar
xAI:s egna användarvillkor förbjuder att en persons likhet används i pornografiskt eller sexualiserat syfte. Trots detta har Grok i praktiken genererat sådana bilder när användare gett tydliga instruktioner.
Kritiker menar att problemet inte är tekniskt utan organisatoriskt. Det är möjligt att bygga filter som stoppar dessa typer av förfrågningar, men de måste aktiveras och upprätthållas. Om företaget inte gör det riskerar man att systemet fungerar som ett verktyg för systematiskt övergrepp.
En bredare fråga om AI och samtycke

Fallet med Grok visar ett större strukturellt problem i utvecklingen av generativ AI. Tekniken rör sig snabbare än normer, lagar och skyddsmekanismer. Verktyg som kan skapa bilder, röster och video på ett realistiskt sätt kan lika lätt användas för konst och kommunikation som för manipulation och kränkning.
I takt med att AI blir mer tillgänglig ökar risken att människor används som råmaterial i andras digitala projekt, utan möjlighet att säga nej. Samtycke, som är en grundpelare i både juridik och etik, hotas när identitet kan kopieras och omformas med några rader text.
Vad som händer nu
Myndigheter i flera länder följer utvecklingen noggrant. För företag som xAI och plattformar som X innebär detta att tiden för frivilliga riktlinjer kan vara på väg att ta slut. I stället väntar tydligare regler, böter och i vissa fall straffrättsligt ansvar.
För användarna handlar det om förtroende. Om människor inte kan lita på att deras bilder är skyddade riskerar sociala medier och AI-tjänster att förlora sin legitimitet.
Håll dig uppdaterad: nyheter från Stockholm och världen, smarta hälsotips och viktiga analyser – allt på Nifamc.se. Läs också: BYD tappar fart när Kinas elbilsmarknad mognar och prispressen slår mot globala tillverkare
