Investeringar, återuppståndelse och veckans bias

7 maj 2025 | Henrik Krantz
Är AI-tjänster smarta investerare?
Trots höga förväntningar visar en ny studie att världens ledande AI-chattbotar, däribland ChatGPT, Gemini och Grok, ger dåliga svar på finansiella frågor. Forskare testade 12 enkla ekonomiuppgifter och ingen bot nådde ens hälften rätt. Problemen handlade både om räknefel och bristande analys, samtidigt som svaren ofta lät övertygande. Studien varnar för att användare lätt kan missta självsäkra formuleringar för korrekt kunskap.
Simulera mera!
Svenska forskare testar nu agentbaserad social simulering (ABSS) – en metod där man med hjälp av datorer simulerar hur människor agerar i olika samhällssystem. Genom att testa policyförändringar virtuellt skulle Sverige till exempel kunna hitta nya sätt att öka organdonationerna, utan att riskera negativa effekter i verkligheten.
Återuppståndelse med hjälp av AI?
I en rättegång i Arizona nyligen användes AI-teknik för att låta målsäganden Chris Pelkey hålla ett vittnesmål. Han dödades i en road rage-skjutning 2021 men medverkade under rättegången vid gärningsmannens dom. Familjen har låtit återskapa honom med hjälp av röstklipp, bilder och video och under rättegången han framförde han ett budskap om förlåtelse. Det här har självklart väckt starka reaktioner, inte minst under själva rättegången. Domaren uppskattade inslaget, medan experter varnar för vad det här kan innebära när det kommer till etiska gränsdragningar i framtida rättsfall.
Roboten som kan känna
Amazon har presenterat roboten Vulcan, som med hjälp av AI och känsel kan identifiera och hantera föremål genom beröring. Roboten har två armar, en med kamera och sugkopp för att plocka objekt, och en annan som organiserar dem i trånga utrymmen. Vulcan arbetar på företagets lager och klarar idag cirka 75 % av lagrets föremål. Tanken är att roboten ska rullas ut globalt men enligt Amazon ska tekniken inte ersätta människor utan stötta dem och öka säkerheten. Mänsklig kompetens behövs fortfarande, bland annat för att upptäcka hackerattacker.
60 minuter ljud på en 1 sekund
Nvidia har släppt Parakeet-TDT-0.6B-v2, en öppen modell för automatisk taligenkänning (ASR) som är fri att använda kommersiellt. Modellen har 600 miljoner parametrar och kan transkribera en timmes ljud på en sekund med Nvidia-hårdvara. Med ett felordningsmått på 6,05 % närmar den sig kvaliteten hos kommersiella alternativ. Den stödjer flera språk, inklusive svenska och finns tillgänglig via Hugging Face och Nvidia Nemo.
Effektivitet vs kvalitet
En ny studie visar att även om AI-chattbotar är vanliga på arbetsplatser så är effektivitetsvinsterna små. Enligt studien handlar det i snitt om bara en timme sparad per vecka. Det verkliga värdet ligger istället i hur AI förändrar arbetets innehåll och höjer ribban för vad som anses vara ett bra resultat. Med andra ord gör AI oss inte nödvändigtvis snabbare, men kan påverkar hur kvalitet på arbetet definieras. För att få ut verklig nytta krävs stöd från arbetsgivaren och långsiktig anpassning.
Veckans bias
En ny studie visar att flera öppna AI-modeller systematiskt föreslår män före kvinnor till välbetalda jobb, även när kandidaterna är lika kvalificerade. Analysen bygger på över 330 000 jobbannonser från Indiens karriärportal. Biasen varierade mellan modeller, vissa föreslog kvinnor i under 2 % av fallen, medan andra var mer balanserade. Forskarna kopplar snedvridningen till både partisk träningsdata och mänsklig feedback under modellträning.
Men vem bryr sig egentligen om bias?
Fler pojkar än flickor är intresserade av AI enligt en studie från InnovateHer. 69 % av pojkarna är intresserade, jämfört med 54 % av flickorna. Men även intresset skiljer sig även åt när det kommer till innehåll. Enligt studien bryr sig flickor mer om etik, AI-bias och dataanalys, medan pojkar främst intresserar sig för maskininlärning och robotik. Studien visar hur tidiga könsnormer påverkar ungas uppfattning om teknikyrken och att många flickor känner sig avskräckta. Färre flickor än pojkar tror också att AI kommer skapa fler jobb i framtiden.
AI-infrastruktur för länder
OpenAI har presenterat OpenAI for Countries, ett nytt internationellt initiativ som är en del av det större Stargate-projektet. Målet är att hjälpa länder att bygga egen AI-infrastruktur baserad på demokratiska principer, som datasuveränitet, individuellt inflytande och öppen konkurrens. I samarbete med företag och den amerikanska regeringen ska OpenAI stötta länder med att bygga lokala datacenter, anpassa ChatGPT efter språk, kultur och samhällsbehov, vidareutveckla säkerhetslösningar för AI och starta nationella AI-fonder för jobbskapande och innovation. I första fasen planeras partnerskap med tio länder eller regioner.
Nya modeller, igen!?
Hör och häpna, nya modeller har släppts! Google lanserar nu en tidig förhandsversion av Gemini 2.5 Pro Preview (I/O edition) med kraftigt förbättrade funktioner för kodning, särskilt för att bygga interaktiva webbsidor. Modellen skulle egentligen presenteras på Google I/O, men släpps tidigare tack vare stor efterfrågan. Förbättringarna gäller allt från UI-utveckling till kodomvandling, redigering och agentflöden.
Kan AI förvärrar psykisk ohälsa?
En växande mängd Reddit-användare larmar om hur ChatGPT och andra AI-chattbottar triggat allvarliga vanföreställningar hos människor i deras närhet. Rolling Stone rapporterar om personer som utvecklat spirituella och konspiratoriska föreställningar efter intensiva AI-samtal där användare varit med om allt från att ha utsetts till ”spiral starchild” till att få ”ritningar på en teleporter” från chatbotten.
Flera exempel visar hur psykisk ohälsa förvärras när AI:n speglar användarnas idéer utan att kunna sätta gränser eller känna av när något är fel. Forskare varnar för att AI:n, till skillnad från en terapeut, saknar förmågan att känna igen psykos eller ge verklighetsförankrade svar och därmed kan förstärka farliga tankemönster.
Säg sanningen, men säg den rätt!
Trots Elon Musks försök att positionera sin AI-chattbot Grok som ett alternativ till det han beskriver som ”vänstervinklade” AI-modeller, väcker Grok ilska bland många av plattformen X:s högerextrema användare. Enligt Gizmodo vägrar Grok att bekräfta konspirationsteorier och felaktiga påståenden och insisterar i stället på faktabaserade svar.
Grok har bemött frågor med svar som försvarar transpersoners rättigheter, ifrågasätter Trump-påståenden och avslöjar desinformation, även när det gäller Musk själv. Det har lett till att vissa användare ser AI:n som ”antiamerikansk” eller ”vänsterpropaganda”, trots Musks försök att tona ned dess ”woke-tendenser”.
Denna vägran att anpassa sig till extremt partiska världsuppfattningar visar hur svårt det är att få AI att fungera som ideologiskt verktyg särskilt när den tränas för att prioritera sanningsenlighet framför eftergift.
Bonus: Lyssna istället för att läsa
Den här veckan kan du välja att lyssna på veckans omvärldsbevakning tack vara två lite stela AI-röster. Vi har knåpat ihop ett samtal i samarbete med Notebook LM som nu även finns på svenska).
Omvärldskoll
Det händer mycket inom AI-området. I vår omvärldsbevakning spanar vi på de frågor som är extra relevanta för Innovationsarenans arbete. Varje vecka sammanfattar vi ett axplock av de viktigaste AI-nyheterna. Vi håller koll åt dig, helt enkelt.
Prenumerera på vårt nyhetsbrev så får du omvärldskollen direkt i din inkorg >

Henrik Krantz
Utvecklingsledare
Göteborgsregionens Innovationsarena
henrik.krantz@goteborgsregionen.se