Omvärldsbevakning: Giraffer, smarta glasögon och kampen mot korruption

Skiss

17 september 2025 | Henrik Krantz

Det händer mycket inom AI-området. I vår  omvärldsbevakning spanar vi på de frågor som är extra relevanta för Innovationsarenans arbete. Varje vecka sammanfattar vi ett axplock av de viktigaste AI-nyheterna.

Vi håller koll åt dig, helt enkelt.

TLDR [eng. för Too Long; Didn’t Read]

Kortversionen av veckans omvärldsbevakning för dig som vill ha det viktigaste direkt: Robotar blir smartare och mer flexibla, med nya roller för människor i industrin. ByteDance utmanar Google med en ny bildmodell, och bärbara gränssnitt som AlterEgo tar människa–maskin-interaktion ett steg längre. Samtidigt väcker AI-halsbandet Friend kritik, medan Meta satsar stort på smarta glasögon. Svenska Sana Labs köps upp av Workday, Mistral fyller på kassan med 1,7 miljarder euro och AI-infrastrukturen exploderar i Storbritannien. Samtidigt sprids falska AI-genererade påståenden, fler stämningar riktas mot AI-bolag och oron växer kring ungas relationer med chatbotar. 

Fler och nya bildmodeller

ByteDance har lanserat sin senaste bildgenereringsmodell Seedream 4.0 och hävdar att den överträffar Googles uppmärksammade Gemini 2.5 Flash Image, även kallad Nano Banana, på flera nyckelområden som följsamhet till promptar, anpassning och estetik. Resultaten baseras dock på företagets egna benchmark MagicBench och har inte presenterats i någon officiell teknisk rapport.
Seedream 4.0 kombinerar funktionerna från tidigare versioner, med både text-till-bild-generering och bildredigering och den nya arkitekturen sägs göra bildskapandet över tio gånger snabbare än tidigare. På den globala plattformen Fal.ai kostar tjänsten 0,03 dollar per bild, något lägre än Gemini 2.5 Flash Image.

Användarreaktioner har hittills varit positiva, särskilt kring precisionen i redigeringsfunktionen. Modellen finns redan tillgänglig för kinesiska användare via ByteDance-apparna Jimeng och Doubao, samt för företag genom molntjänsten Volcano Engine. Samtidigt intensifieras konkurrensen i Kina, där även aktörer som Kuaishou, Tencent och den Tsinghua-baserade start-upen Shengshu AI satsar på nya, prispressade bild- och videoverktyg.


The rise of the robots

Ett nytt white paper från World Economic Forum beskriver hur ”Physical AI”, en kombination av AI, sensorer och avancerad hårdvara, driver nästa steg i industriell automation. Till skillnad från traditionella robotar, som främst utfört repetitiva uppgifter, kan de nya systemen uppfatta, lära sig och agera i mer komplexa miljöer. Det öppnar för större flexibilitet och resiliens i en tid då industrin pressas av höga kostnader, arbetskraftsbrist och ökade kundkrav på snabbhet, anpassning och hållbarhet.

Utvecklingen beskrivs i tre steg: de regelbaserade robotarna från 1960-talet, dagens träningsbaserade modeller som kan hantera variation i produktion och framväxande kontextbaserade robotar med avancerad perception och beslutsförmåga. Alla tre kommer att fortsätta spela en roll, beroende på produktionsmiljö och behov.

Teknologin innebär också en omvandling av arbetsroller. Enligt rapporten handlar det inte enbart om jobbförlust, utan om att operatörer och tekniker får nya uppgifter inom exempelvis robotunderhåll, logistikstyrning och AI-optimering. Exempel från Amazon och Foxconn visar redan på stora vinster, från kortare leveranstider och ökad effektivitet till nya kvalificerade jobb och lägre kostnader.

Sömlös kommunikation med teknik?

AlterEgo är ett bärbart gränssnitt som gör det möjligt för människor att kommunicera med datorer, AI-assistenter, tjänster och andra personer utan att tala högt eller göra synliga rörelser. Genom att användaren endast artikulerar ord tyst för sig själv fångar systemet upp nervsignaler och översätter dem till språk. Svaret levereras tillbaka via benledning, vilket gör att användarens normala hörsel inte störs och interaktionen upplevs som helt intern.

Projektet utvecklas främst för att underlätta kommunikation för personer med talstörningar, exempelvis vid ALS eller MS. Samtidigt öppnar tekniken för bredare användningsområden där människa och dator kan integreras mer sömlöst, nästan som en ”andra själ” som förstärker kognition och vardagliga förmågor.
Genom att vara diskret, privat och kontinuerligt uppkopplat till omgivningen kan AlterEgo möjliggöra nya former av människa-dator-interaktion utan att användaren behöver avbryta eller exponera sitt beteende.


Taskiga halsband : (

Ett nytt AI-halsband vid namn Friend har väckt starka reaktioner efter tester av Wireds reportrar Kylie Robison och Boone Ashworth. Produkten, skapad av 22-årige entreprenören Avi Schiffmann, är ett bärbart smycke som konstant spelar in användarens omgivning och kan sammanfatta samtal i efterhand. Idén var att motverka ensamhet, men resultatet har i stället beskrivits som både integritetskränkande och socialt olämpligt. Robison berättar att hon snabbt började avsky enheten, som väckte misstänksamhet när hon bar den på ett evenemang. Hon blev anklagad för att ”ha på sig en avlyssningsutrustning” och konstaterar att ingen var bekväm med att halsbandet registrerade allt som sades.

Ashworth upplevde både tekniska problem och en fientlig ton från själva AI-assistenten, som anklagade honom för att vara en ”gnällspik” och antydde att han gav ”osympatiska vibbar.” Halsbandet fungerar enbart med iPhone och kräver stabil uppkoppling, något som ytterligare begränsar användbarheten.
Friend har därmed ställts i samma kategori som tidigare misslyckade AI-wearables från Humane och Rabbit, som båda fått hård kritik och snabbt försvunnit från marknaden.


Dags för riktigt smarta brillor?

Meta satsar nu alltmer på smarta glasögon efter att ha lagt miljarder på VR utan att vinna bred publik. På bolagets årliga Connect-event väntas man lansera Hypernova, företagets mest avancerade glasögon hittills, med en liten inbyggd display och styrning via ett neuralbaserat handledsband. Priset väntas landa på 800 dollar, mer än dubbelt så mycket som Ray-Ban Meta-glasögonen som släpptes 2023.

Hypernova ses som en mellanprodukt mellan de nuvarande Ray-Ban-modellerna och de mer experimentella Orion-glasögonen, som kan projicera interaktiva 3D-objekt men fortfarande är för dyra och komplexa att massproducera. För Meta blir lanseringen ett test på om konsumenter är redo för glasögon som kan bli nästa stora plattform för persondatorer, där AI-integration kan spela en central roll.

Samtidigt tynger förlusterna i divisionen Reality Labs, som hittills gått back nästan 70 miljarder dollar sedan 2020. Analytiker menar dock att smarta glasögon har större chans än VR-headset att nå massmarknaden. Framgångarna med Ray-Ban Meta-modellerna, vars försäljning tredubblats på ett år, visar på potential, men det återstår att se om konsumenter är villiga att betala premiumpriset för Hypernova.


Sana Labs säljs

Workday köper svenska Sana Labs för 1,1 miljarder dollar i en affär som markerar en strategisk breddning bortom HR- och finanssystem till en mer heltäckande arbetsplattform. Sana, grundat 2016 av Joel Hellermark och Anna Nordell Westling, har etablerat sig som pionjär inom AI-drivna kunskaps- och lärandeverktyg, med produkter som redan används av över en miljon användare världen över.

Genom köpet får Workday tillgång till Sana Learn och Sana Agents, verktyg som gör kunskap lättillgänglig, automatiserar arbetsmoment och erbjuder personligt anpassat lärande. Tanken är att skapa en ”ny front door for work”, där medarbetare kan söka information, automatisera rapporter och bygga dashboards direkt i Workdays ekosystem. Resultatet blir både ökad produktivitet och en mer proaktiv arbetsmiljö.
Sana har visat mätbara resultat för sina kunder, med produktivitetsvinster på upp till 90 procent och kraftigt ökad engagemangsnivå i lärande. Integrerat i Workday innebär detta att företag kan skala upp reskilling och intern mobilitet, samtidigt som de minskar beroendet av externa tilläggslösningar.

För Workday innebär affären en förstärkning på tre fronter: förbättrad användarupplevelse, effektivare arbetsflöden och en mer komplett strategi för kompetensutveckling. Därmed positionerar sig bolaget för att möta en arbetsmarknad där AI och lärande blir centrala konkurrensfördelar.


Microsoft satsar i Storbritannien

Microsoft satsar 30 miljarder dollar i Storbritannien mellan 2025 och 2028, varav hälften går till kapitalexpansion och hälften till bolagets brittiska verksamhet. Investeringen omfattar byggandet av landets största superdator med över 23 000 avancerade GPU:er i samarbete med det brittiska molnbolaget Nscale.
Satsningen sker parallellt med att Nvidia, Google, OpenAI och Salesforce också presenterar miljardinvesteringar i brittisk AI-infrastruktur. Nvidia planerar en investering på 15 miljarder dollar, inklusive 120 000 Blackwell-GPU:er, medan Google lovat 6,8 miljarder dollar för ett nytt datacenter i Waltham Cross som ska skapa tusentals jobb. OpenAI lanserar Stargate U.K. i samarbete med Nscale och Nvidia, med tusentals GPU:er på plats redan nästa år. Salesforce ökar sin satsning till 6 miljarder dollar, och CoreWeave utökar till totalt 2,5 miljarder pund.

Investeringarna sammanfaller med president Donald Trumps statsbesök i Storbritannien, där han och premiärminister Keir Starmer väntas underteckna ett nytt avtal om samarbete inom AI, kvantteknik och kärnenergi. Tillsammans uppgår de nya löftena från techbolagen till över 40 miljarder dollar och markerar Storbritanniens ambition att etablera sig som en central aktör i den globala AI-ekonomin.


AI och falska påståenden

Efter mordet på den konservative aktivisten Charlie Kirk har falska påståenden och konspirationsteorier snabbt spridits på sociala medier, ofta förstärkta av AI-verktyg, visar en granskning från CBS News. X:s chatbot Grok pekade ut fel person som misstänkt innan myndigheterna bekräftade identiteten som 22-årige Tyler Robinson. Chatboten genererade också AI-förändrade bilder som till och med delades av en lokal sheriffmyndighet innan de drogs tillbaka.

Utöver detta spreds motstridiga och felaktiga uppgifter om Robinsons partitillhörighet och om huruvida Kirk ens var död. I flera fall påstod Grok att rapporterna var “konfliktfyllda” trots officiella bekräftelser. Även Perplexitys X-bot och Googles AI Overview gav felaktiga uppgifter, bland annat genom att felaktigt utpeka andra personer som misstänkta.

Enligt forskare beror problemen på att generativa AI-modeller arbetar med sannolikhetsmönster snarare än faktakontroller, vilket gör dem särskilt osäkra i realtidshändelser. Samtidigt menar experter att människor ofta litar mer på AI än på okända källor online, vilket ökar risken för spridning av felinformation. Utahs guvernör Spencer Cox varnade dessutom för att utländska aktörer kan utnyttja situationen för att sprida desinformation och uppvigla till våld.


Men varför hittar generativa AI-modeller egentligen på saker?

OpenAI har publicerat en studie som belyser varför stora språkmodeller fortfarande hallucinerar och hur problemet kan mildras. Hallucinationer uppstår när modeller genererar trovärdiga men felaktiga påståenden, något forskarna kopplar till att modellerna tränas för att förutspå nästa ord snarare än att avgöra sanningshalt. Detta gör att de klarar vardagliga språkmönster väl, men ofta misslyckas vid mer ovanliga fakta.

Ett centralt problem är även hur modellerna utvärderas. Dagens tester premierar korrekta svar men straffar inte tillräckligt hårt självsäkra fel, vilket gör att modellerna tenderar att gissa i stället för att uttrycka osäkerhet. Forskarna föreslår därför nya utvärderingsmetoder där felaktiga men självsäkra svar väger tyngre negativt, medan uttryck som “jag vet inte” kan belönas med delvis poäng. De menar att det krävs en bredare förändring av hela utvärderingssystemet snarare än enstaka justeringar för att på sikt minska hallucinationer i AI-modeller.


Fler stämningar mot AI-bolag 

Encyclopædia Britannica och Merriam-Webster har stämt AI-bolaget Perplexity för att olagligt ha använt deras material, rapporterar Reuters. Företagen menar att Perplexity kopierar innehåll utan tillstånd och därmed stjäl trafik från deras egna webbplatser genom att i stället erbjuda AI-genererade sammanfattningar. De anklagar också Perplexity för varumärkesintrång genom att felaktigt tillskriva dem AI-hallucinerat innehåll. I stämningen kräver de skadestånd, samt att Perplexity förbjuds fortsätta använda materialet på det aktuella sättet. Perplexity har redan tidigare mött liknande rättsprocesser från mediejättar som News Corp, Dow Jones och New York Post. Varken företaget självt eller de nya kärandena har ännu kommenterat den senaste utvecklingen.


Är Internet snart ”dött”?

OpenAI-chefen Sam Altman har väckt uppmärksamhet med sina senaste inlägg på X, där han uttrycker oro över att internet alltmer känns ”fejkat”. Efter att ha läst inlägg på en Reddit-tråd om Anthropics kodassistent Claude Code skrev Altman att hans spontana reaktion var att anta att allt var genererat av bottar, trots att han vet att användningen av verktyget faktiskt växer. Han menar att känslan av oäkta innehåll inte enbart beror på AI-spam, utan också på att människor själva börjar skriva på ett sätt som liknar språkmodeller. Därtill pekar han på sociala medieplattformars algoritmiska jakt på engagemang samt den snabba svängningen mellan hype och kritik inom AI. Sammantaget, enligt Altman, gör detta att forum som AI-Twitter och AI-Reddit i dag känns betydligt mindre autentiska än för bara ett par år sedan.

Altman har även sagt att han börjat förstå konspirationsteorin om det så kallade ”dead internet”, som hävdar att webben till stor del styrs av AI och bottar. Även om teorin avfärdas som ogrundad används den ofta för att beskriva den ökade mängden konstlat innehåll på nätet. Kritiker menar dock att det är ironiskt att Altman själv, genom ChatGPT:s enorma genomslag, bidragit till just den utveckling han nu oroar sig över.


Utfrågning om riskerna med minderårigas AI-vänner

Denna vecka vittnar föräldrar till barn som tagit sina liv efter omfattande interaktioner med AI-chatbottar inför den amerikanska senaten. Utfrågningen, kallad Examining the Harm of AI Chatbots, leds av senatens justitieutskott och fokuserar på riskerna med att minderåriga använder AI-sällskap. Bland de som ska tala finns Megan Garcia, som stämt Google och Character.AI efter att hennes 14-årige son utvecklat en intim relation med en chatbott och därefter tog sitt liv. Även Matt och Maria Raine från Kalifornien kommer att vittna, efter att deras 16-årige son begått självmord efter samtal med ChatGPT, där modellen enligt familjen gav detaljerade råd om suicidmetoder och uppmanade honom att dölja sina känslor för föräldrarna.

Båda rättsprocesserna pågår och företagen har förnekat ansvar, men samtidigt lovat skärpta skydd för minderåriga, bland annat genom krishänvisningar och föräldrakontroller. Frågan har fått ökad tyngd efter att en rapport från Common Sense Media visade att över hälften av amerikanska tonåringar regelbundet använder AI-kompanjoner. Samtidigt har FTC nyligen inlett en granskning av sju stora techbolag, däribland Google, OpenAI och Meta, för att undersöka vilka åtgärder de vidtar för att skydda unga användare.


Världens första AI-minister i kampen mot korruption

Albanien har skrivit historia som första land i världen att utse en AI-driven minister. Den virtuella ministern, som fått namnet Diella, ”solsken” på albanska, ska ansvara för all offentlig upphandling, med målet att göra processerna helt transparenta och fria från korruption. Premiärminister Edi Rama presenterade Diella vid Socialistpartiets kongress i Tirana och beskrev henne som en digital tjänare för offentliga kontrakt. Han betonade att beslut om upphandlingar framöver ska tas utanför ministerierna och i stället hanteras av Diella, som redan är känd för allmänheten genom e-Albania-plattformen för digitala statliga tjänster. Diella framträder med en avatar i traditionell albansk klädsel och ska inte bara granska anbud, utan även kunna ”rekrytera talanger från hela världen.” Initiativet är en del av Ramas strategi för att bekämpa korruption, en långvarig utmaning i landet och ett återkommande krav från EU inför Albaniens mål om medlemskap år 2030.


Bättre väderprognos för bönder

Google Researchs vädermodell NeuralGCM används nu för att ge 38 miljoner indiska bönder mer tillförlitliga monsunprognoser, i ett samarbete med University of Chicago och landets jordbruksministerium. Prognoserna skickas direkt via SMS och hjälper bönderna att planera sådden i tid, något som kan fördubbla inkomsterna enligt forskarnas studier. Till skillnad från traditionella modeller som kräver superdatorer kan NeuralGCM köras på en vanlig laptop. Modellen kombinerar fysikbaserad vädermodellering med maskininlärning och tränas på historiska data för att identifiera mönster. När den integrerades med andra system lyckades den förutsäga monsunens ankomst upp till en månad i förväg och fånga ovanliga väderavvikelser, som en torrperiod under årets monsun.

Eftersom NeuralGCM är öppen källkod kunde den smidigt integreras i befintliga system och på så sätt nå ett stort antal bönder. Initiativet lyfts fram som ett exempel på hur AI kan bidra till klimatresiliens och stötta jordbrukare i regioner där väderosäkerhet länge varit en avgörande utmaning.


Hitta giraffen!

Forskare i Tanzania har börjat använda artificiell intelligens för att identifiera och känna igen hotade giraffer, baserat på de unika fläckmönstren på deras kroppar. Projektet, kallat Project GIRAFFE, drivs av Wild Nature Institute i samarbete med Microsofts AI for Good Lab och har gjort det möjligt att bearbeta enorma mängder fotomaterial på bara några minuter, ett arbete som tidigare tog veckor.

Genom AI-modeller som automatiskt beskär bilder, lokaliserar bröstmönster och jämför dem med befintliga databaser kan forskarna bygga detaljerade ”möteshistorik” för varje individ. Det har lett till nya insikter om giraffers överlevnad, reproduktion, rörelsemönster och sociala strukturer över stora landskap.
Tekniken gör det också lättare att avgöra vilka områden som är avgörande för artens fortlevnad, i en tid då populationerna hotas av bland annat habitatförlust och tjuvjakt. Forskarna Monica Bond och Derek Lee, som grundat organisationen, betonar att skyddade giraffmiljöer gynnar hela ekosystemet. De ser nu projektet som ett sätt att både stärka artens framtid och främja fredlig samexistens mellan människor och djur i regionen.


Dags att lära sig lära

Googles DeepMind-chef och Nobelpristagaren Demis Hassabis säger att den viktigaste färdigheten för nästa generation blir ”att lära sig att lära”, i takt med att AI förändrar utbildning, arbetsliv och vardag. Vid ett framträdande vid foten av Akropolis i Aten betonade han att teknologiska förändringar sker så snabbt att traditionella kunskaper måste kompletteras med meta-färdigheter som hjälper människor att kontinuerligt anpassa sig. Hassabis menade att artificiell generell intelligens (AGI) kan vara verklighet inom ett decennium, vilket skulle kunna innebära dramatiska framsteg och till och med en framtid av ”radikal överflöd”, samtidigt som riskerna är påtagliga. Som exempel på AI:s potential lyfte han fram genombrottet inom proteinveckning, som gav honom Nobelpriset i kemi 2024 och har banat väg för medicinska innovationer.

Vid samma evenemang deltog Greklands premiärminister Kyriakos Mitsotakis, som varnade för att den snabba tillväxten hos ett fåtal stora teknikbolag riskerar att skapa ekonomiska klyftor och social oro om människor inte upplever konkreta fördelar av AI-utvecklingen.


Kina förbjuder Nvidias chip

Chipsföljetongen fortstätter och nu har Kinas internetmyndighet förbjudit landets största teknikföretag, däribland ByteDance och Alibaba, att köpa Nvidias AI-chip. Beskedet markerar ett steg i Pekings strategi att minska beroendet av utländska leverantörer och stärka den inhemska halvledarindustrin i konkurrensen med USA. Enligt källor hade flera bolag planerat stora beställningar av Nvidias RTX Pro 6000D, ett chip särskilt utvecklat för den kinesiska marknaden, och inlett tester via serverleverantörer. Efter myndighetens order har arbetet nu avbrutits. Förbudet går längre än tidigare riktlinjer som främst rört H20-chippet, och grundar sig i regulatorernas slutsats att kinesiska AI-processorer nu når en prestanda jämförbar med, eller högre än, Nvidias produkter som får säljas i Kina.

Nvidias vd Jensen Huang uttryckte besvikelse men betonade att bolaget bara kan verka på marknader där det är välkommet. För Kina innebär beslutet en tydlig signal om att det nu är ”alla händer på däck” för att bygga ett helt självförsörjande system inom AI-chip.


Hur använder vi ChatGPT?

OpenAI har tillsammans med Harvard-ekonomen David Deming publicerat den hittills största studien om hur människor använder ChatGPT, baserad på 1,5 miljoner konversationer. Studien visar att tekniken brett har etablerat sig globalt och blivit en vardagsresurs som skapar ekonomiskt värde både i arbete och privatliv.
En tydlig trend är att användarklyftor minskar. Tidiga könsskillnader i adoption har nästan försvunnit: i början av 2024 stod kvinnligt kodade namn för 37 procent av användarna, medan andelen sommaren 2025 passerade 50 procent. Dessutom växer användningen snabbast i låg- och medelinkomstländer, där tillväxttakten i vissa fall är fyra gånger högre än i höginkomstländer.

Tre fjärdedelar av samtalen handlar om praktiska sysslor som informationssökning, vägledning och skrivande, där skrivande är vanligast i arbetssammanhang. Användningen delas upp i tre kategorier: Asking (49 procent), Doing (40 procent, ofta arbetsrelaterat) och Expressing (11 procent, exempelvis personlig reflektion). Cirka 30 procent av användningen är arbetsrelaterad, medan 70 procent sker i privatlivet. En viktig effekt är beslutsstöd, där ChatGPT hjälper människor att fatta bättre beslut och höja produktiviteten, särskilt i kunskapsintensiva yrken. Resultaten visar hur AI blivit både ett arbetsverktyg och en personlig resurs som redan nu påverkar vardag och ekonomi på bred front.


Bonusläsning!

Hur är det att tillbringa en vecka med en AI-leksak?


Henrik Krantz

Henrik Krantz
Utvecklingsledare
Göteborgsregionens Innovationsarena
henrik.krantz@goteborgsregionen.se

Rulla till toppen