Omvärldskollen: AI-fusk, prediktiv eftervård och brända julkakor
27 november 2025 | Henrik Krantz
Det händer mycket inom AI-området. I vår omvärldsbevakning spanar vi på de frågor som är extra relevanta för Innovationsarenans arbete. Varje vecka sammanfattar vi ett axplock av de viktigaste AI-nyheterna.
Vi håller koll åt dig, helt enkelt.
Google tar täten?
Sedan ChatGPT lanserades har Google ofta beskrivits som på efterkälken i AI-kapplöpningen, men den bilden förändras nu snabbt. En rad nya modeller och strategiska avtal, bland annat ett chipsamarbete med Anthropic, har stärkt investerarnas förtroende för att företaget kan hävda sig mot OpenAI och andra konkurrenter. Den senaste modellen, Gemini 3, får beröm för sina starka resultat inom både resonemang, kodning och mer specialiserade uppgifter som tidigare fått AI-chattbotar att misslyckas. Analytiker beskriver Google som en länge sovande aktör som nu vaknat och lutar sig mot resurser som många rivaler saknar, som omfattande datamängder, stark lönsamhet och egen infrastruktur.
Google arbetar sedan en tid tillbaka även på ett nytt operativsystem baserat på Android och enligt nya platsannonser ser det ut att få namnet Aluminium eller Aluminium OS. Av formuleringarna framgår att AI blir en central del av systemet, vilket talar för att Googles modell Gemini kommer att byggas in direkt i operativsystemets kärna. Projektet verkar fortfarande befinna sig i ett tidigt skede och det är oklart när en lansering kan bli aktuell, men sannolikt dröjer det minst ett par år innan Aluminium når marknaden.
Men smakar det så kostar det
Google står inför stora kapacitetsutmaningar trots att bolaget bygger nya serverparker världen över. Enligt Amin Vahdat, chef för AI-infrastruktur, behöver kapaciteten fördubblas var sjätte månad under de kommande fem åren för att möta den snabbt växande efterfrågan på AI-tjänster. Det innebär i praktiken att Googles infrastruktur måste bli runt tusen gånger större, utan att energiförbrukning eller kostnader skenar, en uppgift som Vahdat beskriver som mycket krävande.
Han framhåller att konkurrensen kring AI-infrastruktur är den dyraste och mest avgörande delen av AI-kapplöpningen där en nyckel i arbetet är utvecklingen av mer effektiva chipp. Googles kommande Ironwood-chip, den sjunde generationens TPU, uppges vara 30 gånger mer energieffektiv än den första versionen från 2018, vilket ses som ett viktigt steg för att hålla jämna steg med utvecklingen.
För dig som tänker på vildsvin
Forskare vid Linköpings universitet testar en ny AI-baserad viltkamera som ska hjälpa lantbrukare att undvika de stora skador som vildsvin orsakar varje år. Systemet, som bygger på teknik utvecklad för att upptäcka tjuvskyttar i afrikanska nationalparker, kan ta bilder varje sekund och analysera dem direkt. När ett vildsvin fångas på bild skickas ett sms-larm till markägaren, vilket ger möjlighet att ingripa innan fälten förstörs. Kameran kan dessutom övervaka betydligt större områden än traditionella viltkameror, upp till hundra meter.
Det pågående testet genomförs på svenska gårdar för att bedöma hur väl tekniken fungerar i praktiken och hur mycket den kan minska skadorna. Enligt projektledaren Fredrik Gustafsson identifierar systemet vildsvin med omkring 95 procents träffsäkerhet och forskarna arbetar redan med ännu mer precisa modeller.
Genererat innehåll smyger sig in
I ett avsnitt av SVT:s Agenda visades ett videoklipp som påstod sig föreställa en polis i New York som skällde ut en medarbetare från den federala myndigheten ICE. Efter sändningen uppmärksammade tittare att klippet inte var äkta utan skapat med hjälp av AI. SVT har nu bett om ursäkt och beskriver händelsen som ett misstag. Den ansvarige utgivaren Michael Kucera säger att publiken ska kunna lita på att bilderna i programmet är autentiska och att redaktionen nu ser över sina rutiner för att undvika liknande fel. Det berörda avsnittet har tillfälligt tagits bort från SVT Play och ska återpubliceras när det manipulerade klippet har redigerats bort.
Kommer lågkvalificerade jobb att försvinna?
En ny rapport från National Foundation for Educational Research visar att upp till tre miljoner lågkvalificerade jobb i Storbritannien kan försvinna till 2035 på grund av automation och AI. Yrken inom bland annat hantverk, maskinoperering och administrativa uppgifter pekas ut som mest sårbara, medan efterfrågan på högutbildade yrkesgrupper väntas öka när tekniken driver upp arbetsbelastningen på kort och medellång sikt. Samtidigt bedöms ekonomin skapa drygt 2,3 miljoner nya jobb, men dessa väntas främst hamna i mer kvalificerade roller.
Rapportens slutsatser skiljer sig från annan forskning som pekat på att just högkvalificerade yrken, som managementkonsulter och tekniska specialister, är mest utsatta. Exempel som neddragningar hos Clifford Chance och reviderade rekryteringsplaner hos PwC har kopplats till AI, men rapportförfattaren Jude Hillary menar att sådana förändringar lika gärna kan bero på ett svagt konjunkturläge och försiktiga arbetsgivare. Han beskriver utvecklingen som osäker och betonar att de som förlorar lågkvalificerade jobb riskerar att möta betydande hinder när de försöker ta sig tillbaka in på arbetsmarknaden.
Skakig arbetsmarknad
HP meddelar att bolaget planerar att minska sin globala personalstyrka med mellan 4 000 och 6 000 tjänster fram till räkenskapsåret 2028. Syftet är att effektivisera verksamheten och ta i bruk mer AI för att påskynda produktutveckling, förbättra kundupplevelsen och höja produktiviteten. Neddragningarna väntas beröra team inom produktutveckling, interna processer och kundsupport och ingår i en större sparplan som enligt vd Enrique Lores ska ge en årlig besparing på omkring en miljard dollar inom tre år.
Fuska inte!
En man i Göteborg har dömts för grov osann försäkran efter att ha använt avancerad AI-teknik för att fuska på ett kunskapsprov för yrkestrafik. Händelsen inträffade förra sommaren och upptäcktes genom övervakningskameror, där personalen reagerade på att mannen fumlade med något i skjortärmen och att svaga ljud hördes i salen. Det visade sig att han använt mobiltelefon, kamera, USB-sladd och ChatGPT för att läsa av provfrågorna och få översatta svar upplästa i realtid. Enligt tingsrätten utgjorde tillvägagångssättet ett systemhot eftersom ett felaktigt godkänt prov hade kunnat påverka trafiksäkerheten. Mannen förklarade i förhör att han rörde på läpparna för att det skulle se ut som om han läste frågorna själv. Han döms till villkorlig dom och dagsböter. Trafikverkets säkerhetschef Rikard Norrbom säger att fusk med videoteknik förekommit tidigare, men att AI-baserat fusk är något helt nytt.
Fuska inte, del 2
Peter Parnes, professor vid Luleå tekniska universitet, beskriver hur modern teknik och särskilt generativ AI förändrar både lärande och risken för fusk. Han menar att möjligheten att få färdiga svar direkt på skärmen gör gränsen lätt att överträda, ofta utan avsikt. Samtidigt betonar han att bättre uppföljning och fler samtal med elever är avgörande när AI blir en naturlig del av studierna. Enligt honom tyder erfarenheter från andra lärosäten på att tidsbrist är en vanlig orsak till att studenter tar till otillåten hjälp.
Parnes forskar om hur AI och dataspelsteknik kan stärka lärandet i alla åldrar och framhåller att en examination som går att fuska på är dåligt utformad. Nu utvecklar han en ny utbildning för all universitetsanställd personal, där fokus ligger på hur pedagogiken behöver anpassas och hur AI kan stödja både elever och lärare. Han arbetar också med en introduktion om AI för nya studenter och ser tydliga fördelar i att betrakta tekniken som en samarbetspartner snarare än ett hot.
Risk för brända julkakor
Matbloggare och receptutvecklare varnar nu för AI-genererade recept som sprids på plattformar som Google, Facebook och Pinterest och som riskerar att leda till misslyckade, eller rent farliga, maträtter. Enligt Bloomberg beskriver 22 oberoende innehållsskapare hur så kallad ”recipe slop” gör det svårt för hemmakockar att hitta pålitliga instruktioner samtidigt som deras egna verksamheter skadas. AI-baserade sammanfattningar i Google-sökningar uppges ge felaktiga råd, som att julkakor ska gräddas i flera timmar eller att kakrecept blir oätligt sötsliskiga. Även hela AI-genererade receptsajter tar sig in i sökresultaten och vilseleder användare ytterligare.
Några överväger att sluta publicera nytt material då de inte längre ser någon hållbar affärsmodell. Utvecklingen skapar en oro för en framtid där opålitligt AI-material dominerar och där hemmakockar riskerar att hamna långt från beprövade, mänskligt testade recept.
Från brända kakor till stämningsansökningar
Flera stora amerikanska försäkringsbolag, bland dem AIG, Great American och WR Berkley, vill nu få tillåtelse att undanta AI-relaterade skadestånd från företagsförsäkringar. Enligt Financial Times anser bolagen att dagens AI-modeller är så pass oförutsägbara att riskerna blivit svåra att prissätta. Initiativet kommer efter flera uppmärksammade fall där AI skapat problem för företag, bland annat när Google stämdes av Wolf River Electric efter missvisande uppgifter i AI Overview och när Air Canada tvingades stå fast vid en rabatt som deras chattbot påstod att kunden hade rätt till.
Aons cyberchef Kevin Kalinich menar att det inte är de enstaka misstagen som oroar branschen mest, utan risken för systematiska fel. Om en AI-modell gör samma misstag för många användare samtidigt kan det leda till tusentals skadeståndsärenden på en gång, något försäkringsbolagen i dag inte är förberedda på.
Är skärmdöden här?
Sam Altman och den tidigare Apple-designern Jony Ive bekräftar att OpenAI:s första hårdvaruprodukt nu har en fastlagd form och befinner sig i prototypstadiet. I en intervju under Emerson Collectives Demo Day sade Ive att en lansering kan ske inom två år. Projektet har hittills omgetts av stor sekretess, men enheten uppges vara skärmlös och ungefär i storlek med en smartphone.
Altman beskriver designen som enkel, vacker och lekfull och berättar att ett tidigare koncept inte kändes tillräckligt attraktivt förrän teamet hittade en form som väckte en starkare dragning. Ive lyfter samma ideal och säger att han föredrar produkter som vid första anblick nästan verkar naiva i sin enkelhet men som ändå är sofistikerade, intuitiva och utan att skapa distans till användaren.
För dig som använder Claude
Anthropic lanserar Claude Opus 4.5, som beskrivs som företagets mest avancerade och pålitliga modell hittills, särskilt stark inom mjukvaruutveckling, agentbaserade uppgifter och datoranvändning. Modellen presterar bäst på flera etablerade testsviter och sägs lösa komplexa tekniska fel med större precision och färre steg än tidigare versioner. Utvecklare får tillgång till modellen via appar, API och större molnplattformar, till ett lägre pris än tidigare Opus-modeller.
Claude Code uppdateras nu även med tydligare planering och bredare tillgänglighet samt att funktioner för Chrome, Excel och långvariga chattar förbättras. Företaget lyfter även fram förstärkt motståndskraft mot prompt-injektion och andra säkerhetsrisker.
AI rakt ner i avloppet
Det europeiska techbolaget Wioniq lanserar WATER+, en AI-baserad övervakningslösning utvecklad av Pluvion för att hjälpa kommuner att upptäcka dolda läckor och minska kostsamma inflöden av ovidkommande vatten i avloppssystemen. Sådana inflöden driver upp reningskostnader, ökar energiförbrukningen och belastar infrastrukturen, och enligt Pluvions vd Phillip Grimm är det ett problem som drabbar nästan alla kommuner. WATER+ analyserar sensordata i realtid och ger ett mer detaljerat underlag än traditionella metoder, bland annat genom automatiserade rapporter och värmekartor som visar var problemen är som störst.
Systemet kan integreras med kommunernas befintliga GIS- eller webbsystem och bygger på kontaktlösa, batteridrivna sensorer som kräver lite underhåll. I ett pilotprojekt i Österrike kombinerades sensorerna med maskininlärning för att kartlägga kommunens avloppsnät, vilket ledde till att olovliga anslutningar och infiltrationspunkter kunde upptäckas vid uppföljande inspektioner. Efter de positiva resultaten planerar Wioniq en bred europeisk utrullning och utvecklar samtidigt framtida versioner som ska ge ännu mer avancerad läckkvantifiering och kunna hantera fler typer av infrastruktursdata.
Prediktiv eftervård i Norrland
På Norrlands universitetssjukhus används sedan 2024 en AI-modell som utvecklats inom ett forskningsprojekt vid Företagsforskarskolan för att förutse hur länge patienter behöver eftervård efter operation. Modellen är ett samarbete mellan Region Västerbotten, Umeå universitet och doktoranden Lars Mattsson, och ska hjälpa vården att använda sina resurser mer effektivt i en region som brottas med både bemanningsutmaningar och en åldrande befolkning.
Under ett studiebesök visar specialistsjuksköterskan och doktoranden Sara Lundsten hur ett digitalt planeringsverktyg i realtid visar när patienter väntas komma till avdelningen och hur länge de troligen stannar. Tidigare gjordes detta manuellt, men AI-stödet gör det möjligt att förutse flaskhalsar och planera bemanning och sängplatser bättre.
Pilotprojektet har redan förenklat arbetet på avdelningen, och ambitionen är att metoden ska kunna skalas till andra delar av vården. Forskarna betonar att AI inte ersätter personalens medicinska omdöme, men att tekniken kan bidra till ett mer välfungerande vårdflöde och kortare köer.
Forskning visar att chattbottar skapar ytligare förståelse
En ny studie i PNAS Nexus visar att personer som använder AI-chattbotar som ChatGPT för att lära sig om ett ämne får en ytligare förståelse än de som söker information via traditionella sökmotorer. Forskningen bygger på sju delstudier med över 10 000 deltagare, där grupperna slumpades till att antingen använda ett AI-verktyg eller Google. När deltagarna senare skulle ge råd baserat på vad de lärt sig skrev AI-användarna kortare och mer generella svar, medan Google-användarna producerade mer faktarika och genomtänkta texter. Effekten kvarstod även när båda grupperna hade tillgång till exakt samma fakta.
Forskarna menar att skillnaden uppstår eftersom lärandet blir mer passivt när AI sammanfattar information i stället för att användaren själv navigerar mellan olika källor. Resultaten är ett i raden av en växande mängd forskning som pekar på risker med att förlita sig för mycket på AI, bland annat försämrad kognitiv förmåga och minnesproblem. Samtidigt fortsätter tekniken snabbt att etableras i utbildningsmiljöer.
Bristfällig undervisning när AI ersätter lärare
Vid Staffordshire University har studenter i ett statligt finansierat yrkesutbildningsprogram i två års tid fått stora delar av sin undervisning levererad av en AI-modell i stället för av en lärare. Enligt uppgifter till The Guardian handlar det om röstinspelningar och presentationsmaterial som tydligt bär spår av generativ AI, med bland annat inkonsekvent engelska, märkliga filnamn och ytlig information. Flera studenter beskriver undervisningen som bristfällig och uttrycker oro över att ha lagt år av studier på ett program som genomförts ”på billigast möjliga sätt”.
Samtidigt förbjuder universitetet studenter från att lämna in AI-genererat material och riskerar disciplinära åtgärder vid överträdelser, trots att riktlinjerna nyligen uppdaterats för att tillåta AI-automatisering i undervisningen. Ett videoklipp som delats med tidningen visar hur en lektion startar med en AI-röst som imiterar en brittisk lärare, för att sedan plötsligt övergå i en spansk accent. För studenterna innebär det att kvaliteten på utbildningen i praktiken avgörs av slumpen.
Gudfadern fortsätter varna, men lyssnar vi?
Geoffrey Hinton, en av ”AI:s gudfäder”, fortsätter att varna för de samhällsomvälvningar han anser att artificiell intelligens kan föra med sig. I ett samtal med Bernie Sanders vid Georgetown University beskrev han hur den snabba utvecklingen skiljer sig från tidigare tekniska skiften, eftersom AI enligt honom riskerar att ta över arbeten utan att skapa nya. Han menar att om systemen blir lika smarta som människor, eller smartare, kan de utföra i princip alla jobb, vilket kan leda till omfattande arbetslöshet och en ekonomi där få har råd att köpa företagens produkter.
Hinton har länge uttryckt oro över både jobbförluster och mer existentiella risker och han anser att framstegen mot generell AI går snabbare än väntat. Samtidigt hävdar han att dagens modeller redan besitter enorma mängder kunskap jämfört med människor och lyfter även militära risker och varnar för att AI-drivna robotsystem kan sänka tröskeln för rika länder att använda våld utomlands, utan politiska konsekvenser.
Bonuslänk!
Lästips om AI och vanföreställningar för dig som orkat hela vägen hit.
Henrik Krantz
Utvecklingsledare
Göteborgsregionens Innovationsarena
henrik.krantz@goteborgsregionen.se