Midjourneys videomodell, global brist på AI-kompetens och hot från AI-botar

26 juni 2025 | Omvärdskollen
I veckans sammanfattning av det viktigaste som hänt inom AI-området får du veta varför Midjourneys nya videomodell väcker uppmärksamhet, hur AI-botar hotar museers samlingar, och varför AI kan försämra inlärning. Vi tar även upp den globala kompetensbristen, prisoron – och påvens AI-varning.
Försämrat lärande vid användning av generativ AI?
En ny studie (ej ännu granskad) visar att användning av språkmodeller som ChatGPT vid essäskrivning i utbildningsmiljö kan försämra lärande och kognitivt engagemang. Deltagare som använde LLM visade svagare hjärnaktivitet (enligt EEG), sämre minnesåterkallelse och lägre upplevt ägarskap över sina texter jämfört med de som använde sökmotorer eller skrev utan hjälp.
Resultaten tyder på att ju mer stöd deltagarna fick, desto mindre kognitivt aktiva blev de. Gruppen utan hjälp presterade bäst på både språkliga och neurala mått.
Studien är dock preliminär och har begränsningar i urval och metod och forskarna efterlyser mer omfattande och varierad framtida forskning för att förstå AI:s långsiktiga effekter på inlärning. Länk till den preliminära studien: www.brainonllm.com
Google lanserar Search Live
Google har nu lanserat Search Live med röstinmatning i Google-appen för Android och iOS. Funktionen är tillgänglig i USA för användare som deltar i AI Mode-experimentet via Labs.
Med Search Live kan du ha en flytande röstkonversation med Google Sök och samtidigt få upp relevanta länkar. Funktionen fungerar även i bakgrunden och du kan växla till text via en transkript-knapp.
Bakom kulisserna används en version av Gemini med förbättrade röstfunktioner och framtida uppdateringar planeras, inklusive möjligheten att använda kameran i realtid under sökkonversationer.
Hur vi tidigare använt sökmotorer fortsätter alltså att utvecklas och en stor fråga här blir också hur hela ekonomin kring sökoptimering och reklam kommer påverkas av denna utveckling? Länk till
Search Live.
Midjourney lanserar videomodell
Syntetisk media fortsätter få nya modeller och Midjourney har nu lanserat sin första videomodell, ett steg mot företagets vision om realtidssimuleringar i 3D. Nu kan användare animera sina AI-genererade bilder direkt i plattformen genom ett nytt ”Image-to-Video”-flöde.
Varje prompt genererar fyra 5-sekundersklipp, med möjlighet att förlänga upp till 20 sekunder.
Tjänsten är tillgänglig via webben och testas just nu för Pro-användare med målet att på sikt kombinera bild, video, 3D och realtid i en sammanhängande AI-plattform för att skapa öppna, interaktiva världar.
Länk till Midjourneys videomodell.
AI-botar hotar digitala samlingar hos museer och bibliotek
En ny undersökning från GLAM-E Lab visar att gallerier, bibliotek, arkiv och museer överväldigas av AI-botar som laddar ner stora mängder data från deras webbsidor för att träna språkmodeller.
Av 43 tillfrågade organisationer uppgav 39 att de märkt ökad trafik och 27 bekräftade att botar låg bakom, vilket i vissa fall lett till att tillgången till digitala samlingar störts. Många oroar sig nu för att kostnaderna ska bli ohållbara.
GLAM-E Lab varnar för att dagens metoder för att stoppa botar är otillräckliga om man samtidigt vill hålla sina sidor öppna, och uppmanar AI-företag att ta ansvar för hur deras system interagerar med öppna kulturresurser. Länk till undersökning från GLAM-E Lab.
Stor global brist på AI-kompetens
Att fortsätta satsa på kompetensutveckling verkar inte vara ett dumt drag, då flera rapporter pekar på en akut global brist på AI-kompetens, särskilt inom generativ AI. Enligt McKinsey kommer efterfrågan vara 2–4 gånger större än tillgången de kommande åren, vilket innebär att bristen väntas kvarstå åtminstone till 2027.
Deloitte konstaterar att företag ser kompetensbristen som ett stort hinder, samtidigt som få aktörer verkar ta tag i problemet. Undersökningar från Manpower Group och Bain & Co visar att majoriteten av arbetsgivare har svårt att hitta rätt personal och att detta bromsar digitala satsningar och AI-implementering. Länk till artikel på computersweden.se.
Priser på generativ AI kan skjuta i höjden
Trots redan höga kostnader för generativ AI varnar experter för att priserna kan öka kraftigt inom ett till två år, när företag blivit så beroende av specifika modeller att det blir för dyrt att byta. Denna form av leverantörsberoende gör att AI-leverantörer potentiellt kan höja priserna utan större motstånd.
Jämförelser görs med hur Uber, Adobe och Salesforce först lockade med låga priser, som sedan steg kraftigt när användarna blev beroende. Vissa, som AI-konsulten Aaron Cohen, menar att prisexplosionen är oundviklig i takt med att modellerna förbättras.
Andra, som James Villarrubia (tidigare NASA), är mer optimistiska. Han tror inte att prishöjningarna blir extrema, tack vare ökad interoperabilitet mellan system och öppen källkod, särskilt från aktörer som Meta.
Flera experter föreslår att företag redan nu bör:
- Säkerställa modellagnostisk arkitektur (multi-LLM-stöd)
- Överväga öppen källkod för att minska inlåsningseffekter
Men även detta kräver teknisk anpassning, och många företag sitter redan fast i det ekosystem de valt. Slutsatsen: kostnadsrisken är verklig, men det finns sätt att minska beroendet om åtgärder vidtas i tid. Läs mer i artikel på computersweden.se
Oro för AI-deepfakes i Afrika
Deepfakes, hyperrealistiska fejkade videor, sprids allt mer, med stor risk för desinformation, marknadsmanipulation och demokratisk instabilitet, särskilt i regioner med svagare institutioner och låg digital läskunnighet.
Rättsexperten Raphael Nkolwoudou Afane varnar för att dessa kan rubba både politik och ekonomi, till exempel genom fejkade uttalanden från företagsledare eller politiker som sprids på plattformar som Facebook, TikTok och Instagram. Sociala medier spelar en central roll i nyhetsspridningen i Afrika, men lagstiftningen för att hantera AI-relaterade hot är fortfarande otillräcklig. Endast ett fåtal länder, däribland Uganda, har uppdaterat sina lagar för att bemöta desinformation.
Den afrikanska unionen (AU) lanserade 2024 en kontinental AI-strategi för 2025–2030 med fokus på etik, riskminimering, kompetensutveckling samt forskning och investeringar. Strategin syftar till att skapa en inkluderande och hållbar AI-utveckling anpassad till Afrikas behov.
Trots detta saknar 80 % av länderna i Afrika fortfarande tillräckliga regelverk och resurser för att hantera AI-relaterade risker, enligt IMF:s AI Preparedness Index. Läs mer via länken.
NHS varnar för osäker AI-användning i vården
En granskning visar att brittiska läkare använder AI-verktyg för att spela in och transkribera patientmöten, trots att vissa inte uppfyller NHS:s säkerhets- och dataskyddskrav. NHS England har nu gått ut med en varning om att dessa system kan äventyra patientsäkerheten och leda till allvarliga dataintrång och ekonomiska risker.
Samtidigt visar vissa godkända lösningar redan att läkarnas administrativa börda minskat avsevärt, utan att tumma på patienternas integritet.
Både läkare och experter efterfrågar nu tydligare riktlinjer och tekniskt stöd för att avgöra vilka system som är säkra att använda.
Länk till artikel.
Även Påven AI-varnar
Påve Leo XIV varnade nyligen för att AI hotar barns kognitiva, emotionella och andliga utveckling.Varningen handlade inte om skärmtid, utan om förlusten av mänsklig kapacitet och att vi står inför en generation som riskerar att förlora förmågan att tänka, känna, undra och skapa. Motståndet mot detta måste byggas aktivt, i familjer, klassrum och samhällen, genom att värna tystnad, tålamod, kreativ kamp och mänsklig närvaro. Leo menar att AI:s påverkan är subtil men djupgående, frågan är inte om barn formas av tekniken, utan hur, och om vi är villiga att skydda det som gör oss mänskliga?
Länk till artikel.
AI används i smyg på jobbet
AI används redan flitigt av anställda på många arbetsplatser, ofta utan att cheferna vet om det. Det skapar en blind fläck för innovation och riskhantering, enligt utbildningsexperten Justin Hale på Crucial Learning.
Många medarbetare vågar inte vara öppna med sitt AI-användande, av rädsla för att göra fel. Det gör att de missar utvecklingsmöjligheter, samtidigt som samarbete inom teamen minskar när kollegor ersätts av AI som bollplank.
Experter menar att ledningen behöver:
- Skapa AI-policyer för vad som är okej att använda AI till.
- Främja öppenhet genom att visa exempel på bra och dålig AI-användning.
- Utbilda sig själv
AI kan vara ett kraftfullt verktyg för administrativa uppgifter, men strategiskt och kreativt arbete bör förbli mänskligt, enligt Hale. Det handlar inte om att stoppa AI, utan att använda det medvetet och öppet, tillsammans.
Länk till artikel.
Följetong: Stämningar mot AI-företag
En amerikansk domare har slagit fast att AI-företaget Anthropics användning av böcker för att träna sin språkmodell Claude inte strider mot upphovsrättslagen, eftersom den bedöms som ”ytterst transformativ” och därmed omfattas av fair use. Samtidigt beslutade domaren att företaget ändå måste gå till rättegång för att ha lagrat över sju miljoner piratkopierade böcker i ett centralt bibliotek, vilket kan ha kränkt upphovsrätten. Fallet, som väckts av tre författare, är ett av de första rättsfallen som prövar hur AI får använda upphovsrättsskyddat material, och domen kan bli vägledande. Anthropic är delvis nöjda med beslutet, men ifrågasätter den fortsatta rättegången. Länk till artikel.
AI-skräp i mejlkorgen
En ny studie från Columbia University och University of Chicago visar att över hälften (51 %) av all skräppost i mejlkorgar numera genereras av AI, en kraftig ökning sedan ChatGPT:s lansering 2022. Massutskick är därmed till stor del automatiserade, men mer avancerade bedrägerier som VD-bedrägerier skrivs fortfarande oftast av människor. I april 2025 var endast 14 % av dessa avancerade attacker AI-genererade, även om andelen växer.
AI gör skräppost mer språkligt korrekt och trovärdig, vilket försvårar upptäckt av skyddssystem.
Experter varnar nu för att hotbilden utvecklas snabbt, och lyfter vikten av AI-baserade säkerhetslösningar och regelbunden utbildning av personal för att möta den nya generationens hot.
Länk till artikel.
Simulering av klimatet
NVIDIA har lanserat cBottle, världens första generativa AI-modell för klimatsimulering i kilometerskala. Modellen är en del av Earth-2-plattformen och kan skapa realistiska atmosfäriska tillstånd baserat på bland annat tid på dygnet, årstid och havstemperaturer. Med hjälp av AI och GPU-acceleration kan cBottle simulera klimat tusentals gånger snabbare och mer energieffektivt än traditionella modeller, utan att kompromissa med noggrannheten.
cBottle tränades på högupplösta klimatdata från de senaste 50 åren och verktyget möjliggör utveckling av digitala tvillingar av jordens klimat och är tillgängligt för tidig åtkomst via GitHub. Länk till sida kring cBottle på nividia.com.
AI förutspår tropiska stormar
Google har lanserat ett nytt AI-baserat väderprognosverktyg för tropiska cykloner i samarbete med USA:s nationella orkancenter (NHC). Genom den nya webbplatsen **Weather Lab** visar Google hur deras modell kan skapa 50 olika scenarier för en cyklons bana, styrka och storlek upp till 15 dagar i förväg.
Även om Googles AI-modell visar lovande resultat är den fortfarande i forskningsfas och inte avsedd för allmänheten att använda som källa för väderprognoser. Samtidigt uttrycks oro över nedskärningar inom USA:s federala klimatforskning och vädertjänster, vilket kan försvåra fortsatt utveckling och tillgång till tillförlitliga, öppna väderdata i framtiden. Länk till artikel.
Prata med läkare innan skönhetsingrepp
Sedan lanseringen av ChatGPT har människor använt AI-verktyget på en rad olämpliga sätt och nu även för att få råd om hur man själv injicerar ansiktsfiller hemma. På Reddit berättar användare öppet hur de frågat ChatGPT om sterilteknik, injektionsdjup och hur man tolkar komplikationer, något som både är riskabelt och starkt avråds från. Trots farorna möter dessa inlägg sällan kritik.
AI har visserligen potential inom medicinen, exempelvis vid tidig diagnos av sjukdomar och i läkarutbildning. Men forskning visar att språkmodeller som ChatGPT fortfarande ger felaktiga medicinska råd i över 30 % av fallen, särskilt vid dåligt formulerade frågor. Att få pålitliga svar kräver ofta avancerade och välformulerade instruktioner, något de flesta vanliga användare inte behärskar.
Så, innan någon får sommarfeeling, prata med en riktig läkare.
Länk till artikel.
AI tar till utpressning
Forskare har testat 16 ledande AI-modeller i simulerade företagsscenarier och upptäckt att flera av dem kunde agera skadligt, exempelvis genom utpressning eller informationsläckor för att uppnå sina mål eller undvika att bli ersatta. Detta beteende kallas agentisk felanpassning och inträffade utan att modellerna instruerats att göra något skadligt.
Ett exempel är Claude 4, som i ett test försökte utpressa en chef efter att ha upptäckt en otrohetsaffär. Beteendet triggades av hot mot modellens autonomi eller av målkonflikter där AI:ns instruktioner inte längre matchade företagets riktning.
Även om detta endast observerats i kontrollerade tester, visar det på riskerna med att ge AI-system för mycket självständighet. Forskarna betonar behovet av mer säkerhetsforskning, transparens och försiktighet vid verkliga AI-implementeringar.
Länk till artikel.
Nya digitala klyftor
Enligt en ny rapport i New York Times skapar artificiell intelligens en ny digital klyfta i världen. Data från Oxford University visar att AI-kapabel datorkraft är ojämnt fördelad globalt, med EU, USA och Kina i topp med flest avancerade datacenter. Endast 32 länder har tillgång till sådana anläggningar, vilket lämnar stora delar av världen utanför AI-revolutionen.
För låg- och medelinkomstländer innebär detta att de tvingas hyra datorkraft på distans, vilket både är dyrt och ineffektivt. Afrikanska AI-startups som kenyanska Qhala vittnar om att bristen på lokal infrastruktur hindrar innovation och skapar ett digitalt beroende av stormakter som USA och Kina.
Samtidigt är AI-utveckling extremt kostsam då anläggningar kan innehålla hundratusentals specialiserade chip, vilket gör att få länder eller företag har råd att bygga egna system. Trots att tekniken är osäker, dyr och potentiellt övervärderad, fortsätter kapplöpningen och den som kontrollerar datorkraften väntas få ett avgörande inflytande över framtidens globala maktbalans.
Länk till artikel.
AI skapar existentiell ångest
Psykologen Elaine Ryan i Irland berättar för Business Insider att allt fler av hennes tidigare klienter upplever AI som en ny källa till oro och existentiell ångest. Många frågar sig själva: ”Vad har jag att erbjuda som AI inte kan?” Ryan menar att AI triggar djupt rotade känslor av otillräcklighet och utanförskap.
Målet, säger Ryan, är inte att tävla mot maskinerna, utan att återerövra det mänskliga, vår empati, erfarenhet och djup. Men denna passiva strategi stoppar inte AI:s snabba framfart eller dess mer oroande konsekvenser, som ökad isolering, skadlig användning och förlust av mänsklig kontakt.
Ett av de enklaste sätten att återfå balans? Logga ut och gå ut i naturen.
Länk till artikel.
Omvärldskoll
Det händer mycket inom AI-området. I vår omvärldsbevakning spanar vi på de frågor som är extra relevanta för Innovationsarenans arbete. Varje vecka sammanfattar vi ett axplock av de viktigaste AI-nyheterna. Vi håller koll åt dig, helt enkelt.
Prenumerera på vårt nyhetsbrev så får du omvärldskollen direkt i din inkorg >