Podden Arena Spotlight

2 december 2025

AI är ett brett område som ständigt växer. Under rubriken Arena Spotlight sätter vi ljuset på ett ämne i taget. Tillsammans med experter på området djupdyker vi i de viktigaste frågorna. Allt för att ge dig en tydligare bild av AI:s möjligheter och utmaningar.

Idag dyker begreppet AI upp i nästan varje samtal om digitalisering. Men vad skiljer egentligen AI från andra IT-tjänster? Hur vet man om en lösning verkligen bygger på AI – eller om det handlar om något annat, som automatisering eller avancerad dataanalys? När är AI den bästa lösningen, och när finns det enklare alternativ?

Vi är många som använder oss av Chat GPT och andra stora språkmodeller. Men handen på hjärtat – skulle du kunna förklara vad en Large Language Modell, LLM eller stor språkmodell är, egentligen? Vad kan den göra och vad kan den inte göra?

Just nu efterfrågas transkribering i många sammanhang, från bearbetning av intervjuer till summerade mötesanteckningar. Men hur fungerar det egentligen? Vilka möjligheter finns och vilka utmaningar behöver vi ha koll på?

Storleken spelar roll, i alla fall när det handlar om att köra AI lokalt på din dator. I det här avsnittet förklarar Johan och Jonas skillnaden på små och stora språkmodeller och nördar ner sig ordentligt i grafikkort, GPU:er och gigabyte. 

Även om stora språkmodeller kan verka allvetande är deras kunskap begränsad till den data de tränats på – något som kan skapa vissa utmaningar. Det är här RAG-tekniken kommer in i bilden!

Går det att krascha en AI-modell? Och vad händer när den börjar killgissa? I det här avsnittet pratar Johan och Jonas om varför AI ibland hittar på svar, hur promptinjektioner kan lura modellen att lämna ut träningsdata – och varför det är du som användare som måste stå för finliret.

Vad händer när AI blir lika smart som vi – eller smartare? I det här avsnittet reder Johan och Jonas ut begrepp som AGI och ASI, slår hål på science fiction-rädslor om Terminator och Skynet och pratar om vad begreppet intelligens egentligen innebär.

Tänk dig att du har en allmänutbildad språkmodell som har läst hela internet. Nu vill du göra den extra bra på ett visst område, som kommunala riktlinjer eller lagstiftning inom välfärdsområdet. Det är här finetuning kommer in i bilden.

Språkmodeller är bra på mycket, det vet vi vid det här laget. Men en stor begränsning är att de inte vet något om nuet. Det innebär att de inte kan hjälpa dig med enkla saker som att kolla vädret, läsa igenom din inkorg eller söka i en databas. Dags att introducera Model Context Protocol, MCP!

Nej, det handlar tyvärr inte om inte dill och gräslök, men om något nästan lika viktigt. Det har blivit dags att prata om hårdvaran som är själva hjärnan bakom AI. I det här avsnittet testar Johan en ny poddpartner och djupdyker i frågan om hur olika typer av beräkningschip, som CPU:er och GPU:er, fungerar och varför de spelar så stor roll för AI-utvecklingen.

Varsågod, en rykande färsk rapport från Microsoft och Googles utvecklarkonferenser. Fokus ligger på ny teknik, uppgraderade produkter och visioner för framtiden. Jakten på den perfekta poddpartnern fortsätter och Johan testar att podda med ännu en ny person. Eller vänta… är det verkligen en person?

Alla avsnitt av podden

Rulla till toppen