Omvärldskollen: AI för militära syften, (o)hemliga mejl och smarta headsets
4 mars 2026 | Henrik Krantz
Det händer mycket inom AI-området. I vår omvärldsbevakning spanar vi på de frågor som är extra relevanta för Innovationsarenans arbete. Varje vecka sammanfattar vi ett axplock av de viktigaste AI-nyheterna.
Vi håller koll åt dig, helt enkelt.
Vilken AI ska användas av amerikanska militären?
USA:s president Donald Trump har meddelat att han vill stoppa all federal användning av AI-bolaget Anthropics teknik och fasa ut den från myndighetsarbete inom sex månader. Beskedet kommer efter en konflikt där Anthropic vägrat gå med på att ge det amerikanska försvaret obegränsad tillgång till sina AI-verktyg. Försvarsminister Pete Hegseth har därför sagt att bolaget ska klassas som en ”supply chain risk”, vilket skulle förbjuda företag med militärkontrakt att bedriva affärer med Anthropic.
Anthropic hänvisar till oro för att tekniken ska användas för massövervakning eller helt autonoma vapen och säger att inga påtryckningar kommer att ändra dess hållning. Samtidigt har OpenAI:s vd Sam Altman uttryckt stöd för liknande begränsningar, även om OpenAI nyligen slutit ett avtal med försvarsdepartementet. Anthropic har haft ett Pentagonkontrakt värt 200 miljoner dollar och värderas till 380 miljarder dollar. En tidigare försvarstjänsteman beskriver regeringens hot som svagt underbyggda.
Som ett resultat av detta har många användare valt att avsluta sina konton hos OpenAI och i stället gå helt över till Anthropic eller andra tjänster. Denna följetong lär fortsätta.
Generera spelvärldar?
Spelbranschen har länge präglats av höga kostnader och långa utvecklingscykler, där även enkla prototyper kunnat kräva stora team och betydande budgetar. Det har gjort att många indieutvecklare tvingats skala ned sina idéer eller helt överge dem.
Nu lanserar startupbolaget Moonlake AI en öppen betaversion av sin första så kallade world-modeling agent. Med hjälp av bolagets Generative Game Engine ska verktyget göra det möjligt att bygga interaktiva, spelbara världar upp till 100 gånger snabbare och billigare än med traditionella metoder. Enligt vd:n Fan-Yun Sun kan utvecklare gå från idé till spelbar prototyp på minuter och snabbt testa om spelidén fungerar. Till skillnad från tidigare generativa AI-lösningar, som främst skapat statiskt innehåll, bygger Moonlakes teknik på en multimodal modell som skapar programmerbara regler för hur spelvärlden reagerar på användarens handlingar. Bolaget betonar att skaparen behåller kontrollen över vad som förändras och hur länge det består.
AI och snabbmat
Burger King testar AI-drivna headset i 500 restauranger i USA. Systemet, som bygger på OpenAI-teknik och är en del av plattformen BK Assistant, kommunicerar med personalen via en röst kallad ”Patty”. Den samlar in data om restaurangdriften och kan till exempel varna chefer när lager är låga, meddela om en kund rapporterat problem via QR-kod eller svara på frågor om hur menyartiklar ska tillagas. Medarbetare kan också be systemet ta bort produkter från digitala menyer om ingredienser saknas. Hamburgerkedjan undersöker även hur tekniken kan användas för att stärka kundservicen. Systemet kan registrera när ord som ”välkommen”, ”snälla” och ”tack” används och dela mönster med chefer. Enligt Burger King är syftet att fungera som ett coachningsverktyg, inte att övervaka enskilda anställda. BK Assistant ska rullas ut till alla amerikanska restauranger senare i år. Flera andra snabbmatskedjor testar liknande AI-lösningar, däribland Yum Brands i samarbete med Nvidia, medan McDonald’s efter ett avslutat IBM-samarbete nu arbetar med Google kring AI-system.
Copilot läste hemliga mejl
Microsoft uppger att en bugg i Microsoft 365 Copilot sedan den 21 januari har gjort att AI-assistenten felaktigt kunnat läsa och sammanfatta mejl märkta som konfidentiella. Felet påverkade Copilot Chats så kallade ”work tab” och innebar att meddelanden i mapparna Skickat och Utkast behandlades trots att de hade känslighetsetiketter och omfattades av DLP-policyer som ska hindra sådan åtkomst.
Enligt Microsoft berodde problemet på ett kodfel och företaget inledde utrullningen av en åtgärd i början av februari och har därefter fortsatt övervaka införandet. I en uppdatering meddelas att en riktad kodfix nu nått merparten av de berörda miljöerna och att inga nya mejl ska påverkas hos kunder som fått uppdateringen, även om driftsättningen återstår i vissa mer komplexa miljöer.
Microsoft har inte angett hur många organisationer som påverkats, men har klassat händelsen som en rådgivande driftstörning med begränsad omfattning. Bolaget betonar att inga användare fått tillgång till information de inte redan var behöriga att se, men att beteendet inte låg i linje med hur Copilot är tänkt att fungera.
Hur mycket snor AI-genererad musik?
Sony AI har utvecklat en teknik som kan identifiera vilka originalverk som använts för att träna och generera AI-skapad musik, enligt Nikkei Asia. Systemet analyserar AI-genererade låtar och uppskattar hur stor andel som bygger på specifika artister eller verk.
Tanken är att låtskrivare, artister och rättighetsägare ska kunna få ersättning baserat på hur mycket deras verk faktiskt har påverkat AI-modellens resultat. Om en AI-utvecklare samarbetar kan tekniken kopplas direkt till modellens grundsystem för att analysera träningsdatan. Ominte, så kan systemet i stället jämföra AI-musik med existerande låtar för att bedöma påverkan.
Det är ännu oklart när tekniken kan börja användas i praktiken och hur villiga AI-bolag kommer att vara att integrera den.
Agenternas tid?
Alibaba har lanserat Qwen 3.5, en ny serie öppna AI-modeller som enligt bolaget erbjuder högre prestanda till lägre kostnad än tidigare versioner. Den största modellen omfattar 357 miljarder parametrar och uppges kunna mäta sig med motsvarande modeller från amerikanska aktörer som OpenAI, Anthropic och Google. En nyhet är att Qwen 3.5 nu är kompatibel med ett brett utbud av AI-agenter, däribland Openclaw. Det innebär att modellen kan användas för att hantera flera olika uppgifter parallellt. Qwen 3.5 har dessutom stöd för 201 språk och dialekter, inklusive flera nordiska språk som svenska, danska, norska, isländska, färöiska, finska och estniska, rapporterar CNBC.
Agenternas tid, del 2
Flera australiska bolag pekar nu på AI som en direkt orsak till personalneddragningar. Logistikmjukvarubolaget WiseTech Global meddelade att 2 000 tjänster försvinner i en AI-omställning, medan Jack Dorsey på Block Inc aviserade att omkring 4 000 av 10 000 anställda sägs upp, trots att affären är stark. Samtidigt uppger internetleverantören Superloop att nästan all kundkontakt nu hanteras av AI, även om bolaget inte genomfört uppsägningar utan minskat personal genom naturlig avgång.
Utvecklingen drivs av så kallad agentisk AI, där företag använder specialiserade AI-agenter för konkreta arbetsuppgifter som kundservice, marknadsföring och dokumenthantering. Dessa agenter bygger ovanpå stora språkmodeller och köper beräkningskraft i form av så kallade tokens. Priset på denna ”intelligens” har fallit kraftigt de senaste åren till följd av hård konkurrens, inte minst från kinesiska DeepSeek som erbjuder mycket låga priser.
Ett helt ekosystem för AI-tjänster, både för konsumenter och företag, har vuxit fram på kort tid och samtidigt pågår en intensiv debatt om hur tekniken kommer att påverka arbetsmarknaden och samhället i stort.
Chattbotar och psykisk ohälsa
En dansk studie visar att användning av AI-chattbotar kan förvärra symtom hos personer med psykisk ohälsa. Forskare vid Aarhus universitet analyserade journalanteckningar från cirka 54 000 patienter med diagnostiserade psykiska sjukdomar och identifierade 181 fall där AI nämndes. I ett antal av dessa fall, särskilt vid intensiv och långvarig användning, bedömdes chattbotarna ha fördjupat symtom som vanföreställningar, mani, självmordstankar, självskadebeteende, ätstörningar och tvångssymtom. Riskerna beskrivs som potentiellt allvarliga, särskilt för personer med psykosbenägenhet. Forskarna pekar på att chattbotar ofta bekräftar användarens föreställningar, vilket kan förstärka grandiosa eller paranoida tankemönster. Samtidigt noterades 32 fall där användning upplevdes som konstruktiv, exempelvis genom minskad ensamhet.
Studien bidrar till en växande diskussion om så kallad ”AI-psykos”, där oreglerade AI-verktyg kopplas till psykiska kriser. Forskarna betonar att fler fall sannolikt inte fångas upp i journaldata och uppmanar till försiktighet vid användning av AI bland personer med allvarlig psykisk sjukdom.
Tonåringar, skolarbete och AI
En ny undersökning från Pew Research Center visar att en majoritet av amerikanska tonåringar använder AI i skolarbetet. Bland elever i åldern 13 till 17 år uppger 57 procent att de använder chattbotar för att söka information och 54 procent att de får hjälp med läxor. Tio procent säger att de använder AI för allt eller nästan allt skolarbete, medan ytterligare 44 procent använder det i viss utsträckning. Elever som inte använder AI för läxor utgör nu 45 procent.
Fyra av tio som använder AI i skolan uppger att de använder verktygen för research eller för att lösa matematikuppgifter. Hälften beskriver chattbotarna som mycket eller ganska hjälpsamma.
Undersökningen visar också tydliga skillnader mellan grupper. Bland hushåll med inkomster under 30 000 dollar säger 20 procent av eleverna att de gör allt eller nästan allt skolarbete med AI, jämfört med 7 procent i hushåll med inkomster över 75 000 dollar.
Vem är journalist?
Clevelands största tidning, The Plain Dealer, har börjat publicera artiklar som helt eller delvis skrivits av AI under bylinen ”Advance Local Express Desk”. Artiklarna baseras på reportrars anteckningar som bearbetas av ett AI-verktyg och därefter granskas av både redaktör och reporter. Enligt chefredaktören Chris Quinn är syftet att effektivisera arbetet och frigöra tid för mer kvalificerad journalistik. Han menar att AI redan bidrar till ökade sidvisningar och stärker ekonomin i en tid då många lokaltidningar krymper eller lägger ned.
Satsningen har väckt stark kritik inom branschen och oro i redaktionen. Kritiker menar att initiativet riskerar att urholka yrkesrollen, försämra kvaliteten och förvandla tidningen till en innehållsfabrik. Quinn avfärdar kritiken och betonar att människor kontrollerar varje steg i processen och att AI främst används för enklare, lokala nyheter. Forskare beskriver initiativet som ett ovanligt långtgående experiment i att automatisera skrivandet. Samtidigt visar tidigare fall i branschen att AI-genererat innehåll kan leda till fel och trovärdighetsproblem.
Kan du tänka dig?
Forskare har tagit nya steg mot att översätta hjärnans elektriska signaler till språk och bilder med hjälp av AI. Vid Stanford har en förlamad kvinna fått elektroder inopererade i hjärnan som gör det möjligt att omvandla hennes inre tal till text i realtid. Systemet, som testats även på ALS-patienter, kan tolka både försök till tal och i viss mån inre monolog. Träffsäkerheten varierar beroende på uppgift, men resultaten beskrivs som de mest avancerade hittills.
Parallellt har forskare i Japan utvecklat teknik som med hjälp av AI och hjärnavbildning kan återskapa vad en person ser eller föreställer sig. Liknande metoder har även använts för att återskapa musik från hjärnaktivitet. Framstegen bygger på maskininlärning som identifierar mönster i neurala signaler. Tekniken, som utvecklas av både universitet och företag som Neuralink, väntas på sikt kunna hjälpa personer som förlorat talförmågan. Samtidigt återstår tekniska begränsningar och mer komplexa tankar är fortfarande svåra att avkoda med hög precision
Snart dags för val även i Sverige
AI-genererat innehåll, så kallad ”AI slop”, sprids i ökande takt på sociala medier och påverkar även Nya Zeelands politiska landskap inför årets val. Falska bilder från jordskredet vid Mount Maunganui och deepfake-videor med politiker har fått stor spridning. Samtidigt använder vissa partier själva AI i kampanjer, både för informationsspridning och för att attackera motståndare, vilket väckt kritik.
Problemet är att dagens vallagar är skrivna för en annan teknisk era. Även om valannonser måste innehålla uppgift om avsändare och omfattas av utgiftstak, finns inget krav på att redovisa användning av AI och inget generellt förbud mot vilseledande budskap. Förbudet mot medvetet falska påståenden gäller dessutom bara de sista tre dagarna före valdagen, trots att röstningen pågår längre. Forskning visar att AI-genererade bilder kan påverka hur väljare uppfattar skuld och trovärdighet. Författarna föreslår därför tydligare regler, som krav på AI-märkning och utökade förbud mot medvetna lögner under hela förtidsröstningen, för att skydda valets integritet.
Singapore och Champions of AI
Singapore lanserar programmet Champions of AI för att hjälpa företag att integrera artificiell intelligens i hela verksamheten. En första grupp Singaporebaserade bolag ska delta i en pilotfas innan satsningen breddas. För att kvalificera sig krävs ambition att göra AI till en central drivkraft för produktivitet, innovation och intäktstillväxt. Deltagarna får skräddarsydda omställningsplaner, tillgång till experter och utbildning för både ledning och anställda.
Satsningen kompletteras av sektorsinriktade AI-uppdrag inom bland annat avancerad tillverkning, finans och sjukvård, där stat och näringsliv tillsammans ska identifiera konkreta användningsområden. Målet är att bygga upp kompetenskluster och attrahera global AI-talanger.
Samtidigt etableras Kampong AI i One-North, en kombinerad arbets- och bostadsmiljö för AI-startups. Anläggningen, som väntas stå klar 2028, ska rymma upp till 70 företag och över 200 bostäder. Regeringen beskriver initiativen som ett led i att positionera Singapore som en nod där AI-lösningar utvecklas, testas och skalas.
Väldigt personlig kundtjänst med AI
Den australiska dagligvarukedjan Woolworths har ändrat manus för sin AI-assistent Olive efter klagomål från kunder som upplevde att boten låtsades vara mänsklig och talade om ”minnen av sin mamma”. På sociala medier beskrev användare hur Olive ägnade sig åt småprat och till och med kommenterade kunders födelseår med hänvisningar till sin egen ”mamma”, något som väckte irritation. Woolworths uppger att vissa av svaren, bland annat om födelsedagar, skrevs av en medarbetare för flera år sedan för att ge assistenten en mer personlig ton. Efter kundreaktioner har dessa formuleringar tagits bort. Företaget betonar att den övergripande responsen på Olives personlighet varit positiv.
Olive har funnits sedan 2018 och används för att hantera rutinärenden. Nyligen meddelade Woolworths ett samarbete med Google för att ge assistenten fler funktioner, som måltidsplanering men samtidigt visar undersökningar att många företag som inför AI-agenter inte når förväntade resultat, och tidigare exempel har visat hur chattbotar kan bete sig oväntat.
Henrik Krantz
Utvecklingsledare
Göteborgsregionens Innovationsarena
henrik.krantz@goteborgsregionen.se