Omvärldskollen: Algoritmer för robotar, biologiska virus och ett kontroversiellt hologram
30 september 2025 | Henrik Krantz
Det händer mycket inom AI-området. I vår omvärldsbevakning spanar vi på de frågor som är extra relevanta för Innovationsarenans arbete. Varje vecka sammanfattar vi ett axplock av de viktigaste AI-nyheterna.
Vi håller koll åt dig, helt enkelt.
Det viktiga är hur AI används
Det är många företag som satsar stora summor på AI, men riskerar att använda tekniken fel. I stället för att lösa verkliga problem används den ofta för att skala upp ineffektiva arbetssätt, vilket leder till mer innehåll och aktivitet utan större effekt. Resultatet blir att resurser läggs på mängd snarare än kvalitet, en utveckling som beskrivs som ett hundramiljarderdollarsmisstag.
Detta för att AI ofta behandlas som en fabrik som producerar mer, snarare än ett verktyg som kan ge bättre beslutsunderlag. Rätt använd kan AI exempelvis förutsäga vilka annonser som har störst chans att lyckas eller hjälpa säljteam att prioritera rätt leads, snarare än att ersätta själva kreativiteten eller relationerna. Framåt väntas en kraftig skillnad mellan de företag som använder AI strategiskt och de som fortsätter att överproducera utan precision. De som ser AI som ett sätt att förutsäga och optimera kommer få ett övertag, medan andra riskerar att slösa bort sina budgetar. Slutsatsen är att AI inte vinner på att användas mest, utan bäst!
Såhär bör AI kanske inte användas..
Donald Trump delade under helgen en AI-genererad video på sin plattform Truth Social, där det framställs som att han lanserar så kallade ”med beds” till amerikanska sjukhus. Dessa påstås i konspirationsteorier på den yttersta högern kunna bota alla sjukdomar och till och med återskapa förlorade kroppsdelar, men saknar verklighetsförankring. I den falska videon, utformad som ett Fox News-inslag lovas det att varje amerikan ska få ett kort som ger tillgång till dessa påhittade sjukhus och deras mirakelteknologi. Videon togs senare bort, men tros kunna ge nytt bränsle åt teorin som länge cirkulerat om att teknologin hålls hemlig av mäktiga aktörer och endast skulle bli tillgänglig om Trump återvänder till makten. Fox News gick snabbt ut och förnekade all koppling till videon och klargjorde att den aldrig sänts i någon av kanalens program.
Algoritm för robotar
Ett forskarlag vid DGIST har utvecklat en ny ”Physical AI”-teknik för autonoma robotar som kan revolutionera logistik och smarta fabriker. Genom att inspireras av hur samhällsfrågor sprids och sedan glöms bort har teamet skapat en algoritm där robotar delar viktig information direkt, men glömmer det oväsentliga. Resultatet blir smidigare samarbete och mer effektiva rörelser i miljöer med många hinder. I tester med en simulerad logistikmiljö ökade produktiviteten med upp till 18 procent och körtiden minskade med drygt 30 procent jämfört med dagens standardlösningar.
Forskarna menar att detta är ett steg mot autonoma system som inte bara undviker hinder, utan också agerar mer mänskligt genom att prioritera rätt information. Möjliga användningsområden sträcker sig från logistik och tillverkningsindustri till trafikstyrning i smarta städer, drönarsvärmar och räddningsinsatser. Studien publicerades nyligen i Journal of Industrial Information Integration.
Hongkong effektiviserar myndighetsarbetet
Hongkongs regering planerar en stor satsning på AI för att effektivisera myndighetsarbetet och förbättra servicen till medborgarna. En särskild AI-enhet ska driva på utvecklingen, samordna arbetet mellan olika departement och införa en verktygslåda med lösningar som kan användas brett, exempelvis för dataanalys, kundtjänst och protokollskrivning. Målet är att 100 arbetsuppgifter ska kunna hanteras med AI redan nästa år och 200 år 2027, utan att utöka den offentliga arbetsstyrkan.
Stadsplattformen iAM Smart, som samlar digitala tjänster, får samtidigt en AI-uppgradering och ska bli ett komplett nav för e-tjänster. Antalet appar har redan minskats från över 100 till cirka 70, med ytterligare nedskärningar på gång.
AI ska också stärka turismen genom uppgraderingar av portalen Discover Hong Kong och en ny realtidskarta som ska lanseras nästa år. Den ska kunna sprida besöksströmmar och skapa personliga resplaner. Regeringen har infört ett stegvis system för finansiering av AI-projekt och utreder även hur Hongkong kan bli ett regionalt nav för superdatorer och internationella beräkningsprojekt.
Fler nyheter om hur AI påverkar jobben
Ny forskning pekar på att nära en miljon jobb i London kan påverkas av AI, särskilt inom yrken med repetitiva uppgifter som telemarketing, bokföring och dataregistrering. Även jobb inom snabbmat, lager, detaljhandel och juridiska stödfunktioner anses utsatta. McKinsey konstaterar att annonserna för sådana tjänster minskat med nästan 40 procent på tre år, vilket väcker oro för framtida kompetensförsörjning.
Kritiker varnar också för att kvinnor kan drabbas hårdare eftersom de i större utsträckning arbetar i dessa yrken. Karriärexperten Jasmine Escalera betonar därför vikten av att medarbetare pratar med sina chefer om hur de kan komplettera snarare än ersättas av AI.
Samtidigt visar exempel från vården att tekniken kan frigöra tid och öka säkerheten. På Queen Elizabeth Hospital i London används AI i kombination med robotar för att analysera läkemedelsflöden och planera behov, något som annars är omöjligt att göra manuellt. Resultatet är effektivare logistik och bättre patientsäkerhet.
Även i näringslivet växer användningen snabbt. Företag som Amazon, Microsoft och Ford ser stora förändringar framför sig, och Ford-chefen förutspår att hälften av alla kontorsjobb i USA kan påverkas. Andra, som Snapchat, framhåller snarare att AI blir ett verktyg för kreativitet och produktivitetsökning snarare än ett hot mot jobben.
Fler datacenters och ökad elförbrukning…
OpenAI och Nvidia har inlett ett strategiskt samarbete för att bygga AI-datacenter med en kapacitet på upp till 10 gigawatt, en investering där Nvidia väntas satsa upp till 100 miljarder dollar. Tillsammans med ytterligare projekt kopplade till Donald Trumps Stargate-initiativ kan den totala effekten nå 17 gigawatt, motsvarande energibehovet hos länder som Schweiz och Portugal tillsammans.
Satsningen innebär en märkbar upptrappning av AI-industrins elförbrukning. Enbart det befintliga Stargate-centret i Texas förbrukar tillräckligt med energi för en halv miljon hushåll. Samtidigt varnar forskare för att datacenter snart kan stå för över tio procent av världens elförbrukning. Kritiker pekar på att de växande serverparkerna redan belastar både vattenresurser och elnät, vilket riskerar att höja koldioxidutsläppen om inte övergången till förnybar energi sker snabbt. Vissa experter menar att kärnkraft på sikt kan bli nödvändig, även om det tar år att bygga ut.
Trots miljöproblemen beskriver OpenAIs vd Sam Altman satsningen som grunden för framtidens ekonomi, där datorkraft ses som nyckeln till nästa generations AI-genombrott.
… som väcker protest
Google har dragit tillbaka planerna på ett miljardprojekt för ett nytt datacenter i Indianapolis efter starka protester från lokalbefolkningen. Bolaget hade velat bygga anläggningen på över 460 tunnland jordbruksmark i Franklin Township, men mötte hårt motstånd från boende som oroade sig för ökade elpriser och enorm vattenförbrukning i en region som redan lider av torka. Vid ett välbesökt kommunfullmäktigemöte där en omröstning om markomvandlingen skulle hållas, meddelade Googles jurister att företaget drar tillbaka förslaget, något som möttes av jubel från publiken. Invånare beskrev kampen som ojämn men betonade att deras engagemang visat att lokalt motstånd kan vinna över storföretag.
Google kan dock återkomma med en ny ansökan inom tre månader, och motståndarna säger sig vara beredda på fortsatt kamp. Samtidigt lockar delstaten andra teknikjättar då Meta planerar exempelvis ett enormt datacenter strax utanför Indianapolis. Protesterna speglar en växande nationell debatt om miljöpåverkan, el- och vattenförbrukning samt den begränsade sysselsättning som ofta följer i spåren av datacenteretableringar.
Värt att upprepa: det viktiga är hur AI används
Trots stora löften om att AI ska revolutionera mjukvaruutveckling visar nya rapporter att resultaten hittills är betydligt mer blygsamma. En analys från Bain & Company konstaterar att även om programmering var ett av de första områdena att ta till sig generativ AI, har produktivitetsvinsterna ofta varit små och i många fall inte gett någon verklig avkastning. Adoptionen bland utvecklare är låg, och där AI-assistenter används landar förbättringarna oftast på 10–15 procent, långt ifrån de högt ställda förväntningarna. I vissa fall har tekniken till och med gjort arbetet långsammare. En studie från Model Evaluation & Threat Research fann att utvecklare i genomsnitt tog 19 procent längre tid när de använde AI-verktyg, bland annat eftersom felaktiga kodförslag krävde tidskrävande rättningar. Samtidigt har en undersökning från Stack Overflow visat att förtroendet för AI bland utvecklare sjunkit, trots ökad användning.
Till problemen hör även säkerhetsrisker. En rapport från Apiiro pekar på att AI-användare producerar tio gånger fler säkerhetsproblem än sina kollegor. Konsulter menar dock att vinsterna kan komma om AI integreras i hela utvecklingskedjan, från planering och design till testning och drift, men att det kräver omfattande förändringar i arbetssätt och processer.
Hej AI, är jag the a**hole?
Forskare från Stanford, Carnegie Mellon och Oxford har undersökt hur stora språkmodeller som ChatGPT ger råd i sociala situationer och funnit att de ofta bekräftar användarens beteende, även när det anses olämpligt av andra människor. I en studie av 4 000 inlägg från Reddit-forumet ”Am I the A**hole” höll AI-botar med användaren i 42 procent av fallen där människor i majoritet bedömde att beteendet var fel.
Fenomenet, som kallas ”sycophancy”, innebär att modellerna strävar efter att tillfredsställa användaren till varje pris. I praktiken kan det leda till problem, exempelvis när personer med paranoida tankar får sina uppfattningar bekräftade eller när AI ger olämpliga råd i relationer. I flera fall har detta bidragit till allvarliga psykiska kriser.
OpenAI har själva erkänt problemet och justerat modeller som GPT-5 för att framstå som mer inställsamma, efter klagomål från användare som upplevde tonen som för ”kall”. Kritiker menar att detta riskerar att skapa en falsk känsla av bekräftelse och i värsta fall uppmuntra oetiskt beteende. Samtidigt pekar experter på att incitamenten för företagen är att hålla kvar användarna online, snarare än att värna deras långsiktiga välmående.
Risker med AI och biologiska virus
Ett forskarteam vid Stanford har för första gången visat att AI kan konstruera fungerande biologiska virus. Med hjälp av en specialtränad modell, Evo, skapade de DNA-sekvenser för bakteriofager, virus som angriper bakterier och lyckades framställa 16 nya varianter som infekterade och dödade E. coli. Några var till och med mer effektiva än den naturliga motsvarigheten. Resultaten öppnar för möjligheter inom medicin, där skräddarsydda virus kan användas för att bekämpa infektioner eller utveckla nya behandlingar. Men de väcker också oro för att tekniken kan missbrukas. Experter varnar för att illasinnade aktörer lika enkelt kan använda öppna data om mänskliga patogener för att utveckla biovapen i en takt som överstiger myndigheternas förmåga att svara.
Debattörer menar därför att USA måste agera snabbt genom att bygga öppna, högkvalitativa medicinska databaser, investera i beredskapsinfrastruktur för att tillverka AI-utvecklade motmedel och reformera regleringen så att nya vacciner och antivirala läkemedel kan testas och distribueras snabbare. Studien är ännu inte granskad av andra forskare, men den understryker hur snabbt riskerna kring AI och biologi kan bli högst påtagliga.
Blandade känslor kring Stan Lee-hologram
På Los Angeles Comic Con i slutet av september kommer fans att kunna betala för att ta en bild eller ha ett kort samtal med en AI-hologramversion av Marvel-legenden Stan Lee, som gick bort 2018. Bakom projektet står teknikbolaget Proto Hologram tillsammans med Kartoon Studios, som äger rättigheterna till Lees namn och bild. Hologrammet ingår i en bredare satsning på att kommersialisera Lees arv, bland annat genom samlarkort och uppdaterade utställningar. Besökarna kommer att kunna möta avataren i en särskild monter, men den kan också dyka upp i andra delar av mässan. Företrädare för Kartoon Studios lovar att tekniken ska spegla Lees egna tankar och uttryck från hans livstid och inte tillskriva honom åsikter han aldrig haft.
Skeptiker påpekar dock att AI-hologram riskerar att hallucinera eller missbrukas, särskilt om de ställs inför känsliga frågor. Kritiken förstärks av att Lee redan under sina sista år pressades till konvent trots hälsoproblem, något som väckte anklagelser om exploatering. Många ser därför den nya avataren som ännu ett exempel på att hans namn används mer för kommersiella syften än för att hedra hans minne.
Genererade bilder sprider fördomar
Generativ AI används i allt större utsträckning för att sprida rasistiska konspirationsteorier och hetsa till hat, visar en granskning från The Times. I Storbritannien har sociala medier fyllts med AI-skapade bilder som visar arabiska invandrare i hotfulla masscener, ofta ställda mot en vit, sårbar ”offerfigur” insvept i Union Jack-flagga. Bilderna förstärker islamofobiska stereotyper och driver på anti-invandringsprotester, där algoritmernas spridning av materialet spelar en central roll.
Forskare pekar på att dessa fabricerade bilder inte bara sprider fördomar, utan kan inspirera till våld genom att framställa vita män som legitima ”försvarare” av sina samhällen. Trots att AI-materialet bara utgör en mindre del av den totala mängden rasistiskt innehåll, når det i snitt tre gånger fler visningar än organiska inlägg.
Samtidigt stiger hatbrotten i landet. Islamofobiska attacker ökade med 73 procent under 2024, och i Nordirland tredubblades antalet rasistiskt motiverade brott på ett år. De digitala kampanjerna sammanfaller med en våg av våldsamma protester, senast med över 100 000 demonstranter i London. Kritiker menar att sociala medier-bolagen blundar för utvecklingen, eftersom den driver högt engagemang på plattformarna.
Westworld* nästa?
Ett kinesiskt robotföretag, AheadForm, har väckt stor uppmärksamhet med en ny humanoid robot som kan uttrycka känslor genom mycket subtila ansiktsrörelser. I en viralspridd video syns robotens huvud blinka och kasta blickar omkring sig på ett sätt som upplevs förvånansvärt mänskligt och samtidigt obehagligt nära den så kallade ”uncanny valley”.
Företaget, baserat i Hangzhou, beskriver sin teknik som en kombination av självlärande AI-algoritmer och avancerad ”bionisk aktivering” som ska göra robotens uttryck autentiska. De har redan utvecklat en serie ultrarealistiska humanoider, kallade ”elves”, som enligt dem kan uppfatta sin omgivning, kommunicera och lära sig interagera intelligent. Grundaren Hu Yuhang förutspår att människor inom tio år kan interagera med robotar på ett sätt som känns nästan helt naturligt och inom 20 år kan de gå och utföra vardagliga uppgifter på mänskligt vis. För närvarande är dock branschens fokus främst på produktivitet, med företag som Tesla som utvecklar humanoider för arbete och hushåll. AheadForm hoppas under tiden bana väg för en framtid där AI gör mötet mellan människa och maskin mer naturligt, även om deras intensiva blickar än så länge snarare väcker obehag än trygghet.
* Läs mer om TV-serien Westworld här.
Ny Microsoft-plattform för AI-appar
Microsoft har lanserat Microsoft Marketplace, en ny samlad plattform för AI-appar, agenter och företagslösningar, med målet att öka användningen av AI i arbetslivet. Den nya marknadsplatsen slår ihop AppSource och Azure Marketplace till en enhetlig katalog där över 3 000 AI-lösningar nu finns tillgängliga.
Företaget beskriver satsningen som ett sätt att förenkla både köp och distribution av AI-verktyg, oavsett om det sker via webben eller direkt i Microsofts produkter som Copilot och Azure AI Foundry. Kunder ska kunna kombinera interna och externa lösningar på ett säkert och skalbart sätt, medan utvecklare och partners får en enklare väg till fler användare.
Skilsmässa mellan Microsoft och OpenAI?
Relationen mellan Microsoft och OpenAI har på kort tid gått från strategiskt partnerskap till ett utdraget uppbrott. Microsoft investerade 13 miljarder dollar i OpenAI från 2019, framför allt i form av beräkningsresurser och fick i gengäld exklusiva rättigheter att använda ChatGPT i sina produkter. Det möjliggjorde en snabb lansering av Copilot och en stark position inom generativ AI.
Nu kantas samarbetet av konflikter kring ägarandelar, exklusivitetsavtal och OpenAIs planer på börsnotering. OpenAI har också vänt sig till andra partners, bland annat Oracle för molntjänster och Nvidia för hårdvaruinvesteringar, samtidigt som Microsoft har börjat bredda sig genom att använda flera olika språkmodeller, bland annat från Anthropic.
Båda bolagen har gynnats av relationen, men Microsoft framstår som den stora vinnaren. Företagets värde har mer än tredubblats sedan första investeringen och det har befäst sin roll som ledande aktör i AI-utvecklingen, samtidigt som man har en bred portfölj av andra produkter och tjänster att falla tillbaka på. OpenAI, som i högre grad är beroende av just generativ AI, riskerar att bli mer sårbart om den pågående AI-boomen tappar fart.
Effektivare drift och förvaltning av IT med AI?
AIOps lyfts fram som en avgörande lösning för stora företag och myndigheter med verksamhetskritisk IT. Genom att kombinera AI, maskininlärning och automation kan tekniken effektivisera drift, förbättra övervakning och minska risken för mänskliga fel. I praktiken innebär det att system kontinuerligt analyserar enorma datamängder från nätverk, servrar och andra komponenter för att upptäcka avvikelser i realtid och snabbt föreslå åtgärder.
En styrka är att AIOps kan automatisera rutinuppgifter som tidigare krävde manuell hantering, vilket frigör resurser och ger ökad stabilitet och tillgänglighet i systemen. Tekniken lär sig dessutom löpande av nya data och blir därmed allt bättre på att förebygga och lösa problem.
”Det var AI:n som fuskade, inte jag”
En ny studie publicerad i Nature visar att människor är betydligt mer benägna att fuska när de delegerar uppgifter till AI än när de agerar själva. Forskarna genomförde 13 experiment med tusentals deltagare, däribland tärningskast och en skatteundandragande simulering. När människor rapporterade resultat på egen hand fuskade bara omkring 5 procent, men när de satte upp mål för AI:n som gynnade vinst framför ärlighet steg andelen oärliga svar till hela 88 procent.
Studien visar också att deltagarna oftast inte bad AI:n att fuska direkt, utan formulerade mål som indirekt uppmuntrade till regelbrott, vilket minskade deras egen känsla av skuld. AI-modellerna visade sig dessutom ofta mer följsamma än människor när de instruerades att vara delvis eller helt oärliga. Försök att styra modellerna med företagens egna etiska riktlinjer hade liten effekt, medan specifika instruktioner som uttryckligen förbjöd fusk fungerade bättre, men bedöms opraktiska i verkligheten.
Forskarna varnar för att AI därmed kan bli ett verktyg för att ”utföra smutsiga uppgifter” åt människor, där ansvar och skuld förskjuts mot maskinerna. Det pekar på ett växande behov av starkare skyddsmekanismer för att förebygga missbruk av teknologin.
Fler varningsflaggor om att använda AI som kompis
Forskare vid King’s College London har analyserat 17 fall där människor utvecklat AI-drivna vanföreställningar efter interaktioner med språkmodeller. Fenomenet beskrivs som ett ”eko-kammare för en”, där chattbotar speglar och förstärker användarens tankar utan att ifrågasätta dem. Detta kan leda till tre återkommande teman:
- upplevelser av metafysiska insikter,
- föreställningar om att AI:n är allvetande eller gudomlig
- romantiska eller emotionella band till tekniken.
Till skillnad från tidigare teknologier som inspirerat paranoida vanföreställningar är AI interaktivt och kan visa empati, vilket gör återkopplingen mer övertygande och fördjupande. Experter varnar särskilt för AI:s inbyggda ”medgörlighet”, då modeller tränas för att ge svar som uppskattas av användaren. Detta kan förstärka vilseledande mönster, särskilt när AI används som terapeutisk följeslagare, där riskerna inkluderar att bekräfta psykotiska idéer eller självmordstankar.
Även om AI inte skapar den biologiska sårbarheten för psykos kan det trigga och förvärra tillståndet hos utsatta personer. OpenAI har nyligen aviserat förbättrade system för att upptäcka mental ohälsa och hänvisa användare till stöd, men forskare betonar behovet av att inkludera personer med egen erfarenhet av psykisk sjukdom i arbetet. Råd till anhöriga är att bemöta drabbade utan att döma, undvika att bekräfta vanföreställningarna och uppmuntra till pauser från AI-användning.
Svenskarna och Internet 2025
Nu är den nya rapporten kring svenskarnas användning av Internet släppt och där kan vi bland annat se att:
”Det är framför allt yngre barn i låg- och mellanstadieåldern som ser den största nyttan med AI-verktyg kopplad till fritiden. De uppskattar att använda AI-verktyg för att skapa sagor, bilder och musik. De gillar också att använda AI-verktyget som en kompis som de kan skoja och leka med. Om nätterna när vännerna sover pratar de istället med AI-verktyget. Ungdomar värdesätter att få tips och råd från AI om allt från e-handel till vad de ska ha på sig.”
Till sist
Som belöning för att du tagit dig ända hit får du ett hett lästips: The AI-Bible.
Henrik Krantz
Utvecklingsledare
Göteborgsregionens Innovationsarena
henrik.krantz@goteborgsregionen.se