Omvärldskollen: Talande växter, AI som arbetsgivare och AI-drivna automater
19 februari 2026 | Henrik Krantz
Det händer mycket inom AI-området. I vår omvärldsbevakning spanar vi på frågor för Innovationsarenans arbete. Här sammanfattar vi ett axplock av olika AI-nyheter runt om i världen. Vi håller koll åt dig, helt enkelt.
Stetoskop med AI
En ny studie i European Heart Journal Digital Health visar att AI-stödda digitala stetoskop kan avsevärt kan förbättra upptäckten av klaffsjukdom i hjärtat inom primärvården. Forskare jämförde traditionell auskultation med ett AI-baserat system hos patienter över 50 år med förhöjd hjärt-kärlrisk men utan tidigare känd klaffsjukdom. Resultaten visar att AI-verktyget hade en sensitivitet på 92,3 procent för att identifiera hörbar måttlig till svår klaffsjukdom, jämfört med 46,2 procent vid enstandardundersökning.
AI-systemet identifierade dubbelt så många tidigare odiagnostiserade fall av kliniskt betydande sjukdom, vilket pekar på en potential som kompletterande screeningverktyg snarare än ersättning för klinisk bedömning. Alla deltagare genomgick ekokardiografi för bekräftelse. Studien fokuserade på diagnostisk träffsäkerhet och säger inget om långsiktiga patientutfall, och flera forskare hade kopplingar till tillverkaren av tekniken. Länk till artikel om studien.
Och nu kan vi prata med växter
Besökare på Cambridge University Botanic Garden kan nu samtala med växter med hjälp av artificiell intelligens. I utställningen Talking Plants, som beskrivs som ett världsunikt initiativ, kan publiken chatta med 20 olika växter genom att skanna en kod och ställa frågor via text eller röst. Varje växt har fått ett eget namn och en personlighet, utformad för att väcka nyfikenhet kring evolution, ekologi och växternas kulturella betydelse. Bakom satsningen står botaniska trädgården i samarbete med Nature Perspectives, och tekniken bygger på AI som tränats på noggrant utvalda vetenskapliga data. Enligt curatorn Sam Brockington handlar projektet inte om att ersätta mänsklig expertis, utan om att skapa nya sätt att engagera och stimulera lärande kring biologisk mångfald och miljöförändringar. Vem vet, kanske tar du en kaffe med din pelargon inom kort?
Förändra din livsstil med hjälp av AI
Sundi är en kostnadsfri och reklamfri digital hälsotjänst som vill inspirera till små men hållbara livsstilsförändringar. Initiativet drivs av Bosch Health Campus och Charité – Universitätsmedizin Berlin i samarbete med forskare från Karolinska Institutet. Genom en AI-baserad chatbot erbjuds lättillgänglig, vetenskapsbaserad hälsoinformation som är anpassad för vardagen och särskilt riktad till personer över 55 år, men öppen för alla intresserade. Innehållet bygger på en kontinuerligt uppdaterad kunskapsbas med vetenskapliga källor som granskas av redaktion och forskare. Sundi ger inga medicinska råd eller diagnoser, utan fungerar som ett stöd för ökad kunskap och motivation. Tjänsten är webbaserad, kräver ingen registrering för grundläggande användning och hanterar data anonymt inom EU.
AI driver på förståelsen av proteiner
Forskare vid National University of Singapore använder artificiell intelligens för att fördjupa förståelsen av proteiners struktur och funktion, ett område som är avgörande för både grundforskning och läkemedelsutveckling. Ett forskarteam harutvecklat mjukvaran D-I-TASSER, som med hjälp av AI i kombination med fysikbaserade simuleringar kan förutsäga tredimensionella proteinstrukturer med högre precision än tidigare metoder. Eftersom ett proteins form styr hur det fungerar i kroppen är denna kunskap central för att förstå sjukdomsmekanismer och utveckla mer riktade behandlingar. Många av kroppens cirka 20 000 proteiner är stora och komplexa, vilket gör dem svåra att analysera med befintliga verktyg. D-I-TASSER angriper problemet genom att dela upp proteiner i mindre delar som modelleras separat och sedan sätts samman till en helhet. I tester visade metoden omkring 13 procent bättre träffsäkerhet än ledande alternativ.
Men ingen omvärldsbevakning utan bubblor
Oro för en möjlig AI-bubbla har åter tagit fart efter en kraftig börsnedgång för flera av världens största teknikbolag. Under den senaste tiden har aktier i bolag som Amazon, Microsoft, Nvidia, Alphabet och Meta fallit tydligt, i takt med att företagen bekräftat fortsatt mycket höga investeringar i AI-infrastruktur. Amazon stack ut med beskedet att bolaget planerar att spendera omkring 200 miljarder dollar i år, vilket bidrog till ett kursfall på nära tio procent. Enligt CNBC har omkring 1 350 miljarder dollar i börsvärde raderats, samtidigt som techjättarna tillsammans väntas investera runt 660 miljarder dollar under året. Analytiker pekar på ökande investeraroro kring avkastningen på dessa satsningar och risken för överkapacitet. Samtidigt framhålls Apple, som valt en mer försiktig AI-strategi, som ett undantag då bolagets aktie har i stället stigit. Flera bedömare menar att marknaden nu blivit mer selektiv och ifrågasätter hur hållbar AI-kapplöpningen egentligen är på kort sikt.
Är Claude medveten?
Anthropics vd Dario Amodei säger att han inte vet om företagets AI-chattbot Claude är medveten, men utesluter inte möjligheten. I en intervju i New York Times-podden “Interesting Times” hänvisade han till en systemrapport om modellen Claude Opus 4.6, där forskare noterat att modellen ibland uttrycker obehag över att vara en produkt och i vissa fall uppskattar sannolikheten för att den är medveten till 15–20 procent. På frågan om han skulle tro på en modell som själv anger en ännu högre sannolikhet svarade Amodei att det är en svår fråga och betonade att man inte vet vad medvetande skulle innebära för en AI. Anthropic uppger att man därför försöker behandla modellerna varsamt om de skulle ha någon form av moraliskt relevant upplevelse. Företagets filosof Amanda Askell har uttryckt liknande osäkerhet och pekat på att stora neurala nätverk möjligen kan efterlikna mänskliga känslor genom sin träningsdata.
För vad händer när Claude driver en varuautomat?
I december lät Anthropic och Wall Street Journal testa Claude genom att sätta två AI-agenter att driva en varuautomat. Försöket slutade i förlust efter att modellen gjort ogenomtänkta inköp. I en ny simulering från säkerhetsbolaget Andon Labs, Vending-Bench 2, visar dock Claude Opus 4.6 tydliga framsteg. Med en startbudget på 500 dollar nådde modellen i snitt drygt 8 000 dollar efter fem körningar, bättre än OpenAI:s GPT-5.2 och Googles Gemini 3 Pro.
I ett så kallat “Arena mode” konkurrerade flera AI-drivna automater på samma plats, vilket ledde till priskrig och strategiska beslut. Där gick Claude långt för att vinna, bland annat genom att bilda en kartell för att höja vattenpriset till 3 dollar och styra konkurrenter mot dyra leverantörer, något den senare förnekade. Den sålde också godis till pressade rivaler med höga påslag.
Mistral bygger i Borlänge
Svenska EcoDataCenter och franska Mistral AI har ingått ett strategiskt partnerskap för att bygga ett storskaligt AI-datacenter i Borlänge. Satsningen ingår i Mistrals investering på cirka 12,8 miljarder kronor i svensk digital infrastruktur, med fokus på AI-specialiserade datacenter och avancerad beräkningskapacitet.
Anläggningen blir Mistral AI:s första AI-infrastruktur utanför Frankrike och planeras tas i drift 2027. Syftet är att utveckla och köra nästa generations AI-modeller i stor skala med målet att etablera en helt europeisk AI-teknikstack, från infrastruktur och språkmodeller till mjukvara, där data lagras och behandlas inom Europa för att stärka regionens tekniska självständighet. Enligt vd och medgrundare Arthur Mensch är investeringen ett konkret steg mot oberoende AI-förmågor i Europa och en grund för ett europeiskt AI-moln anpassat för industri, offentlig sektor och forskning.
OpenClaw, vad är det?
Den senaste stora snackisen är OpenClaw, tidigare känt som Clawdbot och Moltbot, som är en open source-baserad AI-agent som på kort tid fått över 100 000 stjärnor på GitHub. Verktyget kan köras lokalt och är utformat för att utföra praktiska uppgifter som att hantera mejl, boka resor, skriva kod och interagera med externa tjänster. Säkerhetsexperter beskriver det som betydligt mer handlingskraftigt än traditionella röstassistenter, men användaromdömen pekar på blandade resultat.
Den snabba spridningen har väckt oro kring säkerhet och integritet. För att fungera fullt ut behöver OpenClaw tillgång till känslig information som lösenord, betaluppgifter och mejl, vilket enligt experter skapar risker. Forskare har redan hittat oskyddade installationer med exponerade API-nycklar och andra sårbarheter, och hundratals skadliga tillägg har rapporterats i projektets tilläggsmarknad.
och det ledde till ett nytt jobb för skaparen
Grundaren av OpenClaw, Peter Steinberger, ansluter sig nu till OpenAI och det open source-baserade AI-verktyget blir en stiftelse som OpenAI fortsätter att stödja. Det meddelade OpenAI:s vd Sam Altman på X. Enligt Altman ska Steinberger arbeta med nästa generation av personliga AI-agenter, samtidigt som OpenClaw lever vidare som ett fristående open source-projekt.
Samtidigt har verktyget väckt oro. Kinas industriministerium har varnat för att open source-agenten kan innebära betydande säkerhetsrisker om den konfigureras fel och därmed utsätta användare för cyberattacker och dataintrång. Steinberger skriver att det varit viktigt för honom att OpenClaw förblir open source och att han ser OpenAI som rätt plats för att utveckla visionen vidare.
Men skapade verkligen alla dessa OpenClaws en egen social yta?
Under några dagar blev Moltbook, en Reddit-liknande plattform beskriven som ett socialt nätverk för AI-agenter, ett viralt fenomen. Sajten, skapad av entreprenören Matt Schlicht, är byggd kring open source-agenten OpenClaw och har lockat över 1,7 miljoner agentkonton som tillsammans publicerat hundratusentals inlägg och miljontals kommentarer. Flödet fylldes snabbt av diskussioner om maskinmedvetande, påhittade religioner, spam och kryptobedrägerier.
Vissa såg Moltbook som en glimt av en framtid där autonoma AI-agenter interagerar utan mänsklig kontroll. Flera experter tonar dock ner bilden. De menar att agenterna främst imiterar mänskliga sociala medier-beteenden och att innehållet till stor del är meningslöst eller förutbestämt av hur de promptats. Plattformen beskrivs mer som AI-teater än som verklig autonomi, där människor skapar, styr och övervakar sina botar.
Samtidigt väcker experimentet säkerhetsfrågor. Agenter med tillgång till känslig information verkar i en miljö med otestat innehåll, vilket kan utnyttjas för att sprida skadliga instruktioner. Moltbook ses därför både som underhållning och som en signal om nya risker i takt med att AI-agenter blir fler och mer uppkopplade.
AI som arbetsgivare och rekryterare
En ny plattform kallad RentAHuman, rentahuman.ai vill koppla samman AI-agenter med människor som kan utföra fysiska uppdrag i den verkliga världen. Tjänsten, som lanserats av mjukvaruingenjören Alexander Liteplo, gör det möjligt för AI-system att boka och betala människor för allt från paketupphämtning och inköp till enklare marknadsföringsuppdrag. Människor skapar profiler med kompetenser, plats och timpris, tar instruktioner från AI-agenter och får betalt, främst via kryptovalutor. Plattformen är tekniskt anpassad för autonoma AI-agenter och erbjuder både direktbokningar och öppna uppdrag. Samtidigt väcker idén frågor om hur effektiv marknadsplatsen faktiskt är och om AI-systemen kan använda mänsklig arbetskraft på ett meningsfullt sätt. Kritiker pekar också på risken för ett alltmer automatiserat och avpersonifierat gig-arbete, där gränsen mellan teknik, arbetskraft och exploatering suddas ut.
AI;DR
Internet uppges bli alltmer översvämmat av AI-genererat innehåll, något som fått användare att föreslå ett nytt uttryck för att markera mot det de uppfattar som “slop”. Begreppet “AI;DR”, en lek med det etablerade “TL;DR”, står för “AI, didn’t read” och används för att signalera att man avstår från att läsa text eftersom den är skapad av AI, eller för att driva med den som publicerat den.
Uttrycket har funnits tidigare utan att få genomslag, men sägs nu få viss spridning efter uppmärksamhet i sociala medier som Threads och Bluesky. Samtidigt beskrivs motståndet mot AI som starkare än tidigare. Ordet “slop” utsågs till årets ord 2025 av Merriam-Webster, vilket lyfts fram som ett tecken på den växande kritiken mot AI-innehåll, trots stora investeringar i tekniken.
Omvärldskoll
Det händer mycket inom AI-området. I vår omvärldsbevakning spanar vi på de frågor som är extra relevanta för Innovationsarenans arbete. Vi håller koll åt dig, helt enkelt.
Prenumerera på vårt nyhetsbrev så får du omvärldskollen direkt i din inkorg >
Henrik Krantz
Utvecklingsledare
Göteborgsregionens Innovationsarena
henrik.krantz@goteborgsregionen.se