Det känns som världens längsta och mest offentliga skilsmässa. I slutet av april förhandlade Microsoft och Open AI återigen om den långdragna upplösningen av relationen som pågått mellan de två under de senaste åren.
Vid första anblicken ser det ut som en vinn-vinn-situation. I stora drag får Open AI större frihet att styra sin egen kurs – man kan till exempel sälja sina modeller till Microsofts konkurrenter som Amazon och Google – medan Microsoft får ett bättre intäktsavtal och förhandsrätt till de senaste Open AI-teknikerna under det kommande decenniet.
Men i själva verket fick det ena företaget ett bättre avtal än det andra. Vem kom ut som vinnare? För att ta reda på det måste vi först titta på de viktigaste detaljerna i det nya avtalet.
Ett nytt avtal efter mycket bitterhet
Kom ihåg att detta nya avtal inte uppstod ur tomma intet. Det är ett direkt resultat av Microsofts hot i mars om att stämma Open AI när de tecknade ett avtal värt 50 miljarder dollar med Amazon, vilket gör det senare företaget till den enda tredjepartsleverantören av molntjänster för Open AI:s företagsplattform för att bygga och driva AI-agenter.
Efter att avtalet mellan Amazon och Open AI undertecknats hävdade Microsoft att det stred mot deras exklusiva molnavtal med Open AI. En källa inom Microsoft sa till Financial Times: ”Vi kan vårt avtal. Vi kommer att stämma dem om de bryter mot det. Om Amazon och Open AI vill satsa på kreativiteten hos sina avtalsjurister skulle jag satsa på oss, inte på dem.”
Det ledde till förhandlingar och slutligen till ett avtal mellan Microsoft och Open AI som luckrar upp banden mellan de två företagen, vilket gör det lättare för dem att gå sina egna vägar. Det förändrar också de finansiella relationerna mellan dem avsevärt.
Vad Open AI fick
Avtalet gav Open AI det som företaget desperat ville ha – en viss grad av oberoende från Microsoft. Den största fördelen för Open AI är att företaget nu kan sälja sina AI-modeller via andra företag än Microsoft, bland annat på Google Cloud och Amazon Web Services. (Hittills har modellerna endast varit tillgängliga på Microsoft Azure.)
Med den nya friheten kan Open AI lättare staka ut sin egen kurs istället för att låta Microsoft bestämma den.
Open AI får också något avgörande för sin förväntade börsintroduktion – en slutlig gräns för hur mycket pengar man måste betala till Microsoft. Open AI betalar nu 20 procent av sina intäkter till Microsoft. Enligt de nya villkoren kommer Open AI att fortsätta betala fram till 2030, men det totala beloppet för dessa betalningar kommer att begränsas. Företagen har inte avslöjat vad denna gräns är.
Taket är avgörande för Open AI, eftersom investerare kommer att vara mer benägna att köpa Open AI-aktier om företagets långsiktiga lönsamhet inte tyngs av betalningar till Microsoft.
Vad Microsoft fick
Microsoft får också ett bra avtal. Även om Open AI nu kan sälja till Microsofts konkurrenter förblir Microsoft Open AI:s främsta molnpartner; Open AI:s produkter måste levereras på Azure innan de blir tillgängliga hos konkurrenterna. Det ger Microsoft en betydande fördel som ”först på marknaden”, eftersom dess kunder kommer att få Open AI:s senaste produkter före Amazons och Googles kunder.
Avtalet förlänger också Microsofts grepp om Open AI:s immateriella rättigheter fram till 2032. Microsoft har satsat stort på sin egen AI-utveckling, så när det exklusiva avtalet löper ut kommer Microsoft sannolikt inte längre att behöva det.
Avtalet kommer också att bidra mycket till att öka Microsofts vinst. Företaget behöver inte längre betala royalties till Open AI för återförsäljning av Open AI-produkter på Azure. Istället behåller Microsoft nu alla intäkter själv. Och, som beskrivits ovan, får Microsoft fortfarande 20 procent av Open AI:s intäkter tills taket nås.
Det finns en sista dold fördel: Det nya distansförhållandet mellan Microsoft och Open AI gör det mindre troligt att Microsoft skulle kunna åtalas enligt antitrustlagar i USA eller utomlands. Den amerikanska Federal Trade Commission har redan granskat förhållandet flera gånger och utfärdat en varning om potentiella antitrustöverträdelser.
FTC:s dåvarande ordförande Lina Khan varnade förra året: ”FTC:s rapport belyser hur partnerskap mellan stora teknikföretag kan skapa inlåsningseffekter, beröva nystartade företag viktiga AI-insatser och avslöja känslig information som kan undergräva rättvis konkurrens.”
Så vem är den verkliga vinnaren?
Microsoft kommer ut som vinnare. Företaget behöver inte längre betala royalties till Open AI, behåller förstahandsrätt till den senaste Open AI-tekniken, behåller exklusiva rättigheter till AI-företagets immateriella rättigheter fram till 2032 och får 20 procent av Open AI:s intäkter tills ett tak nås. Dessutom är det osannolikt att företaget kommer att utredas för antitrustöverträdelser. Utöver det är det fortfarande en stor aktieägare i Open AI, så det kommer att få del av Open AI:s framgångar.
Open AI får visserligen också fördelar – men de är inte alls lika betydande som Microsofts. Det är ännu ett exempel på hur Microsoft har använt sin relation med Open AI för att kickstarta sina egna AI-kapaciteter och säkra sin framtid.
Amazon Web Services (AWS) omformar sin underliggande nätverksinfrastruktur, ett steg som kan komma att omdefiniera hur företag förhåller sig till molnteknik, kostnader och driftseffektivitet. När företag överväger nästa generations arbetsbelastningar, från generativ AI till globalt distribuerade applikationer, utgör AWS:s heltäckande, anpassade nätverksstack en ny utgångspunkt för molnekonomi, flexibilitet och säkerhet.
Låt oss ta en närmare titt på vad AWS har meddelat, varför det är viktigt och hur smarta företagstekniker bör planera för att navigera i landskapet av möjligheter.
Låt oss börja med AWS:s nya nätverksfilosofi, som fokuserar på att göra nätverksanslutningen nästan osynlig för både användare och administratörer. För AWS måste nätverket vara lika pålitligt som att trycka på en strömbrytare – det fungerar helt enkelt, och ingen märker det om det inte går sönder. För att uppnå detta högt ställda mål har AWS under det senaste decenniet gått ifrån traditionell, proprietär nätverkshårdvara och byggt en enhetlig, anpassad stack som spänner över allt från kisel till mjukvara.
Kärnan i denna innovation är beslutet att använda en enda applikationsspecifik integrerad krets (ASIC) för växling – kiselhjärnan i centrum av varje nätverksväxel – i sina aggregerings-, kärn- och gränsnätverk. I stället för den gamla branschpraxisen att blanda och matcha hårdvara från olika leverantörer (var och en med sin egen firmware, buggar och skalningsutmaningar) har AWS nätverksingenjörs- och driftsteam som fokuserar på en enda, konsekvent grund. Detta förenklar inte bara inköp och felsökning utan möjliggör också skalbara, reproducerbara distributioner som överträffar hastigheten hos konventionella företags- eller molnarkitekturer.
Alla dessa switchar kör Net OS, ett Linux-baserat operativsystem som AWS har utvecklat för att optimera säkerhet, automatisering och snabb patchning. Om ett fel uppstår kan AWS åtgärda det överallt, omedelbart; man behöver inte vänta på leverantörspatchar och det finns ingen risk att gårdagens firmwareproblem kan eskalera till morgondagens driftstopp.
Siffrorna är häpnadsväckande. Den nuvarande AWS-switchen hanterar 51,2 terabit per sekund (Tbps) över 64 portar, var och en med en hastighet på 800 Gbps. Men innovationstakten accelererar: AWS nästa generations switch, som kommer snart, kommer att nå 102,4 Tbps, med portar som körs på 1,6 Tbps. Sammantaget består AWS nätverk av ungefär 2 miljoner enheter, 50 till 60 miljoner optiska länkar och mer än 20 miljoner kilometer fiber – tillräckligt för att cirkulera månen 25 gånger.
Komplexiteten i företagen exploderar
Varför bör företag bry sig om detta? Nätverk är fortfarande en dold drivkraft för molnkostnader, tillförlitlighet och flexibilitet. Ju mer komplex din applikationsportfölj blir – från AI-drivna kluster till globalt distribuerade databaser – desto mer betalar du för bandbredd, latens, driftstopp och administrativa kostnader.
AWS:s anpassade stack innebär att nätverkets tillförlitlighet, hastighet och säkerhet är inbyggda i infrastrukturen. När AWS uppgraderar sin hårdvara och mjukvara får företagen tillgång till dessa förbättringar omedelbart. En höjdpunkt är introduktionen av hollow-core fiber. Genom att ersätta traditionell fiber med glasrör omgivna av luft (eller vakuum) minskar AWS nätverkslatensen med 30 procent, vilket gör datacenterregionerna större, mer flexibla och bättre rustade att möta krav på låg latens – till ett premiumpris för arbetsbelastningar där latens är skillnaden mellan vinst och förlust.
AWS högprecisionsnätverk är en annan banbrytande innovation för arbetsbelastningar som distribuerade databaser och finansiella handelsplattformar. Genom att synkronisera klockor med en noggrannhet på mikrosekunder möjliggör AWS globalt konsistenta transaktioner, vilket öppnar upp för nya applikationsarkitekturer för företag som tidigare tvingades betala höga priser för specialiserad hårdvara och mjukvara.
Ännu viktigare är den ”osynliga” nätverksstrategin. Eftersom AWS äger både hårdvaran och mjukvaran kan man snabbt åtgärda buggar, fixa sårbarheter och optimera prestandan. För företagsarbetsbelastningar minskar detta risken, förkortar underhållsfönstren och påskyndar införandet av nya tekniker som generativ AI. Den nya Ultra Cluster-nätverkstopologin minskar också antalet växlar mellan servrar, minskar latensen och stöder gigantiska kluster, vilket är avgörande för företag som satsar stort på AI-träning och inferens.
Uppnå kostnadsbesparingar och undvik fallgropar
Företag som planerar att införa AWS senaste nätverksplattform bör börja förbereda sig redan nu, även om införandet ligger flera månader fram i tiden.
Gör först en grundlig analys av nuvarande och framtida nätverksbehov. Om dina arbetsbelastningar blir allt mer distribuerade, realtidsbaserade eller bandbreddskrävande (tänk AI, Internet of Things, databas-sharding eller finansiell handel) är du troligen en utmärkt kandidat för att dra nytta av fördelarna. Kartlägg era befintliga arkitekturer mot högpresterande nätverksregioner med låg latens inom AWS och utvärdera om era molnbaserade eller hybridarbetsbelastningar kan dra nytta av dessa innovationer utan större förändringar av kod eller dataarkitektur.
För det andra, ompröva din driftsmodell. Eftersom AWS hanterar så stor del av nätverksstacken måste it-team flytta fokus från djupgående infrastrukturhantering till strategisk arbetsbelastningsplacering, kostnadsoptimering och prestandajustering. Det som en gång var en högt specialiserad kompetens – finjustering av leverantörsspecifik hårdvara och mjukvara – ger vika för en modell som drivs av insyn, automatisering och integration mellan AWS-tjänster. Företag bör investera i utbildning och verktyg som gör det möjligt för deras team att snabbt reagera på nätverksuppgraderingar, lanseringar av nya funktioner och förändringar i datalokalitet, så att de förblir agila och konkurrenskraftiga.
Slutligen bör man utvärdera partnerskap, säkerhet och efterlevnadsmodeller. AWS:s anpassade stack erbjuder förbättrad patchning och snabb respons på sårbarheter, men företagen måste se till att deras egna säkerhetskontroller och revisionsspår är upp till uppgiften. Detta inkluderar granskning av incidenthanteringsplaner, efterlevnadscertifieringar och övervakningsfunktioner, särskilt när nätverksstommen blir ”osynlig” och mindre direkt kontrollerad.
Var passar AWS plattform in?
AWS innovationer är idealiska för företag med högpresterande, distribuerade arbetsbelastningar, för företag som skalar ut på sätt som belastar äldre arkitekturer, eller för dem som vill minimera driftstopp och driftsfriktion. Om hastighet, tillförlitlighet och extremt låg latens är viktiga konkurrensfördelar, kommer AWS anpassade stack nästan säkert att passa.
Men inte alla företag eller arbetsbelastningar behöver det allra senaste. Företag med stabila arbetsbelastningar med låg volym, liten geografisk spridning eller begränsat beroende av realtidsdata kan tycka att de höga priserna för den senaste nätverksinfrastrukturen är onödiga. För vissa behåller multicloud- eller hybridimplementeringar ett strategiskt värde av flexibilitets- eller efterlevnadsskäl; för dessa organisationer krävs en noggrann arkitektur för att undvika inlåsning och för att säkerställa att arbetsbelastningarna kan spänna över flera leverantörer eller lokala miljöer.
I slutändan handlar AWS nya nätverksplattform inte bara om hastighet eller kapacitet. Den signalerar en förskjutning mot operativ agilitet, säkerhet och kostnadsoptimering för företag som är villiga att anpassa sig – och en varning till dem som halkar efter. Dagarna av att brottas med lappverk av hårdvaruleverantörer och vänta på nätverksuppgraderingar är på väg att försvinna. För att dra nytta av AWS nätverksrevolution måste företag utveckla sina strategier i dag genom att samordna teknik, människor och processer för att få en konkurrensfördel imorgon.
Vid Sapphire 2026 presenterade SAP det man kallar ”Autonomous Enterprise”: en omfattande vision där AI-agenter inte bara bistår medarbetarna, utan själva utför affärsprocesser.
– Vi bygger inget mindre än ett nytt SAP, sa vd Christian Klein till deltagarna i Orlando, Florida.
Företaget, sade han, är på väg att ”bli ett företag inom affärs-AI”.
Kärnan är SAP Autonomous Suite, som använder mer än 50 domänspecifika SAP Joule AI-assistenter inom ekonomi, leveranskedja, inköp, HR och kundengagemang. Dessa assistenter samordnar en grupp på över 200 specialiserade agenter för att utföra uppgifter från början till slut, från att komprimera bokslutet till att automatisera ombalanseringen av leveranskedjan.
Klein betonade att AI för företag kräver precision.
– Om AI sköter löneutbetalningar, bokslut eller planering av leveranskedjan är 80 procent noggrannhet inte tillräckligt, sa han.
En ny plattform och ett nytt gränssnitt
Grunden för sviten är SAP:s nya Business AI Platform, som förenar SAP:s Business Technology Platform, Business Data Cloud och AI-funktioner i en enda styrd miljö. Kärnan är vad SAP kallar ”företagsminne”, en kontextgraf som förser agenterna med policyer, procedurer, Slack-konversationer och e-postgodkännandekedjor så att de vet vad de ska göra och, framför allt, vad de inte ska göra.
– När det uppstår ett undantag läggs det till i företagsminnet och alla agenter anpassar sig omedelbart, sa Muhammad Alam, styrelseledamot med ansvar för produktutveckling.
SAP introducerade också Joule Work, som fundamentalt förändrar hur användare interagerar med SAP-programvara. Istället för att navigera i applikationer och mata in data på olika skärmar beskriver användarna ett önskat resultat, och Joule koordinerar arbetsflöden, data och agenter för att få det gjort.
För utvecklare lanserade SAP Joule Studio 2.0, som är tillgängligt gratis fram till årsskiftet, vilket låter dem bygga agenter med Python, Claude Code eller Cursor och distribuera dem till en hanterad runtime. AI Agent Hub, som lanseras under tredje kvartalet utan extra kostnad, erbjuder en enda plats för att upptäcka, hantera och styra agenter i både SAP- och icke-SAP-system.
Partner och bevis
SAP bjöd in viktiga partner på scenen och på skärmen för att understryka sina AI-ambitioner. I videoklipp sa Anthropics president Daniela Amodei att Claude-modeller driver Joule-agenter inom ekonomi, inköp och leveranskedjan, och Nvidias vd Jensen Huang diskuterade öppna agentprotokoll som gör det möjligt för AI att agera säkert inom företag.
Jeremy Barnum, cfo på JP Morgan Chase, sa att banken uppgraderar sin huvudbok till SAP:s enhetliga plattform och utforskar agentfunktioner för kassahantering.
– Man kan inte realisera AI:s fulla potential i en äldre miljö, sa han.
Ett antal kunder har redan tagit systemet i drift. Enligt Rob Fisher, KPMG:s globala rådgivningschef, har företaget till exempel implementerat Joule för 270 000 användare, där 3 000 konsulter använder 20 agenter, och företaget siktar på att minska kontraktsläckaget med 120 miljoner dollar.
Dessutom rapporterade Ericsson att man sparat 90 000 timmar genom att använda personanpassade AI-rekommendationer för sina 85 000 anställda. Bayer använder assistenter för kontantinkassering; Novartis har implementerat inköpsagenter för stora volymer; och H&M har demonstrerat ett butiksinformationssystem som levererar prestationsdata i realtid och AI-drivna rekommendationer till butikschefer.
Tänk på avståndet
Ändå släpar införandet efter ambitionerna. Maribel Lopez, grundare av Lopez Research, säger att företagen inte implementerar det som redan finns tillgängligt.
– SAP-kunder är mycket försiktiga eftersom SAP-arbetsbelastningarna är centrala för driften av verksamheten, säger hon.
Mickey North Rizza, chef för företagsprogramvara på analysföretaget IDC, är mer optimistisk.
– För närvarande används 73 procent av AI-agenterna och -assistenterna ofta och ger besparingar på 30 till 90 minuter per dag, säger hon.
– SAP:s AI-vision är en ledstjärna för deras kunder att framgångsrikt ta sig in i AI-världen.
SAP:s Alam tillade att kunderna har blivit otåliga med företagets AI-löften och har ställt honom till svars. Med hänvisning till assistenten för bokslut krävde en kund: ”Finns den verkligen? Om det dröjer tre månader ska jag bygga den själv.” Det skapar en ny känsla av brådska, sade Alam.
Lita på, men verifiera
SAP har gjort styrning till ett centralt fokus, påpekade Alam. Företaget har byggt in SOX-revisorkompatibilitet i sitt ramverk för att säkerställa revisionsberedskap på agentnivå, och varje åtgärd loggas och är spårbar.
Men Jonathan von Rüeden, SAP:s AI-chef, medgav att kunderna har olika nivåer av trygghet med autonomi, beroende på processen.
– I en bokslutsprocess kommer finansdirektören att vilja ta en titt när böckerna stängs. Men folk känner sig mer trygga med autonoma periodiseringar.
SAP prioriterar också interoperabilitet. Agenter som byggs i Joule Studio kommer att stödja A2A-protokollet för att ansluta till tredjepartsagenter, och SAP:s orkestreringslager kommer att styra icke-SAP-agenter utan extra kostnad.
Vägen till autonomi
För att påskynda införandet har SAP uppdaterat sina erbjudanden. RISE with SAP-kunder får tre Joule-assistenter aktiverade under sitt första år, medan GROW with SAP-kunder får tillgång till hela agentportföljen vid onboarding. Agentledda transformationsverktyg kan minska migreringsarbetet med cirka 35 procent, enligt SAP.
– Men just nu behöver kunderna inte tusentals agenter; de behöver få agentbaserad AI igång med en uppsättning säkra, styrda agenter som hjälper dem att hantera specifika användningsfall, säger Lopez.
– Kunderna måste fråga sig vad visionen är, koppla den till sina behov och sedan planera resan.
Den ökända malwaregruppen TeamPCP tycks ha publicerat källkoden till sin Shai-Hulud-mask öppet på Github, rapporterar The Register. Säkerhetsföretaget Ox upptäckte två publika kodarkiv där gruppen själva beskriver projektet som öppen källkod.
Shai-Hulud är en självspridande mask som angriper NPM-paket och försöker stjäla inloggningsuppgifter till tjänster som AWS, Github, Azure och Google Cloud.
Om den lyckas kan den automatiskt infektera fler projekt genom att publicera manipulerade paket vidare i utvecklarnas leveranskedjor. I vissa fall försöker skadeprogrammet även radera den lokala miljön om attacken misslyckas.
Enligt Ox har andra angripare redan börjat forka och modifiera koden på GitHub för egna versioner av masken. Vid tillfället för rapporteringen hade arkiven funnits tillgängliga i tolv timmar utan att Github tagit bort dem.
Flera stora Hollywoodprofiler, som George Clooney, Tom Hanks och Meryl Streep, ställer sig bakom den nya AI-standarden “Human Consent Standard”, rapporterar The Verge.
Bakom initiativet står även organisationer som Creative Artists Agency samt skådespelerskan Cate Blanchett, som beskriver systemet som ett sätt för både kändisar och vanliga människor att skydda sina rättigheter i AI-eran.
Standarden gör det möjligt för användare att ange om AI-företag får använda deras material fritt, endast under vissa villkor eller inte alls. Syftet är att ge människor större kontroll över hur AI-system får använda deras ansikten, röster, karaktärer och kreativa verk.
Systemet bygger vidare på “Really Simple Licensing”-standarden och använder signaler via robots.txt-filer för att kommunicera reglerna till AI-botar. I juni lanseras även ett register som AI-system kan kontrollera och där både kreatörer och privatpersoner ska kunna verifiera sin identitet och ange sina AI-villkor.
Sydkoreas regering överväger en slags “folkutdelning” där delar av de enorma vinsterna från landets halvledar- och AI-industri skulle kunna omfördelas till allmänheten, rapporterar Nikkei Asia.
Förslaget kommer från president Lee Jae Myungs policychef, Kim Yong-beom, som varnar för att AI-ekonomin riskerar att skapa stora klyftor. Enligt honom kommer AI- och chippföretag att samla på sig mycket stora vinster samtidigt som medelklassen och personer utan AI-kompetens riskerar att halka efter.
Regeringen har ännu inte presenterat exakt hur en sådan utdelning skulle fungera i praktiken. En variant är att en del av vinsterna ska användas för satsningar som exempelvis stöd till unga entreprenörer, landsbygden, konstnärer, pensionärer och AI-utbildning.
Enligt Kim Yong-beom står Sydkorea nu inför ett vägval. Att fortsätta som en traditionell exportberoende ekonomi som svänger med värdskonjukturen, eller utvecklas till en ny typ av AI-driven industristat.
Fram tills nyligen ingick Autopilot för nya Teslakunder i Nederländerna. Men funktionen har tagits bort. Ersättare är betaltjänsterna Uppgraderad Autopilot och FSD Supervised.
För ett år sedan sjösattes Berget AI, ett alternativ till techjättarnas moln. Nu kommer Berget Code – en svensk kodassistent för utvecklare som vill bygga ai-tjänster utan att skicka användardata till USA.
Under tisdagen visade Google upp Googlebook, en ny serie bärbara datorer som är tänkt att ersätta Chromebook på sikt.
Googlebook använder sig av Googles nya operativsystem som är en sorts kombination av Android och Chrome OS. Det innebär bland annat att det blir möjligt att köra miljontals mobil-appar rakt av.
I övrigt är det stora dragplåstret Gemini Intelligence, Googles samling av AI-verktyg som ska hjälpa oss med mer eller mindre allt vi vill göra med våra datorer.
Eftersom Gemini har full koll på det som syns på skärmen kan AI-verktyget föreslå lämpliga åtgärder för dina filer eller samla in data från dina appar.
För att starta Gemini räcker det med att skaka på muspekaren, en funktion som kallas för Magic Pointer.
Precis som med Chromebook kommer det att finnas Googlebook-modeller från Googles samarbetspartners, vilket inkluderar Acer, Asus, Dell, HP och Lenovo.
De första datorerna kommer börja säljas till hösten, rapporterar Ars Technica.
En av nyheterna i Android 17 är Pause Point, en ny funktion som gör det möjligt att få en automatisk paus på tio sekunder när du öppnar beroendeframkallande appar som Tiktok, Instagram eller Youtube.
Syftet med Pause Point är att minska risken för att användarna fastnar framför sina skärmar, ett fenomen som kallas för ”doomscrolling”.
Under den tio sekunder långa pausen kan du nämligen bestämma dig för att göra något annat med mobilen, till exempel läsa en e-bok eller lyssna på en ljudbok.
Alternativt kan du förstås välja att strunta i mobilen och ta en skogspromenad eller träffa kompisar.
För att stänga av Pause Point behöver du starta om mobilen, vilket ska se till att du tänker dig för innan du avaktiverar funktionen.
På sistone har amerikanska, tyska och nederländska myndigheter varnat för en våg av falska supportmeddelanden i appen Signal.
I själva verket handlar det om nätfiskekampanjer där förövarna är ute efter att lägga vantarna på våra konton, chattar och kontakter, rapporterar Bleeping Computer.
Nu har Signal valt att lägga till tydliga varningar i appen med uppmaningen att aldrig svara på meddelanden som påstås komma från supportavdelningen.
När någon försöker ta kontakt med dig kommer det dessutom stå ”Name not verified” eller ”No groups in common” om det rör sig om en okänd person.
Dessutom lyfts fram att Signal aldrig frågar efter registreringskoder, pinkoder eller återställningsnycklar, så alla sådana förfrågningar är att betrakta som lurendrejeriförsök.
Att utveckla ett nytt stridsfordon eller en bandvagn börjar sällan med en enskild idé. Krav måste vägas mot varandra, användningen analyseras på djupet och lösningar verifieras steg för steg i verkliga miljöer. Hos BAE Systems Hägglunds i Örnsköldsvik finns hela processen samlad, från tidiga studier av framtida behov till färdiga fordon som testas i fält.
När neutronkällan ESS utanför Lund startar i början på nästa år är forskarna utbildade vid SwedNess redo. Utöver grundforskning om materiens inre egenskaper kan de också bistå svensk industri med värdefull kunskap.
DEBATT. Sveriges framtid som innovationsland bygger på att vi blir ännu bättre på att förena konstnärliga och ingenjörsmässiga perspektiv, skriver Anna Valtonen och Martin Nilsson Jacobi, rektorer på Konstfack respektive Chalmers tekniska högskola.
IDC uppskattar att det fanns över 28 miljoner AI-agenter i drift vid slutet av förra året och förutspår att det kommer att finnas över 1 miljard aktiva agenter år 2029, som utför 217 miljarder åtgärder per dag.
Det är enkelt att bygga en POC för en AI-agent, säger Venkat Achanta, chef för teknik, data och analys på Trans Union, ett globalt kreditinformationsföretag med en omsättning på 4,6 miljarder dollar. Men att styra, säkra och skala upp den är en helt annan utmaning, särskilt för företag i starkt reglerade branscher som finansiella tjänster och hälso- och sjukvård.
För att lösa problemet har Trans Union ägnat de senaste tre åren åt att bygga sin agentbaserade AI-plattform, One Tru. Målet var att skapa något som var lika tillförlitligt och deterministiskt som de gamla, skriptbaserade expertsystemen, men lika flexibelt som generativ AI och lika lätt att interagera med som en chattbot.
Tricket var dock att kombinera det bästa av två världar genom att använda traditionella system för kärnprocesser där förklarbarhet och tillförlitlighet är avgörande, och att på ett begränsat sätt lägga till generativ AI-funktionalitet för de uppgifter som den var särskilt lämpad för. Eftersom infrastrukturen för detta inte fanns tillgänglig byggde Trans Union sin egen och avsatte 145 miljoner dollar till projektet.
Det var en stor investering i en oprövad teknik, men den har redan lett till kostnadsbesparingar på 200 miljoner dollar. Dessutom använde Trans Union plattformen för att bygga kundinriktade lösningar så snart den var klar.
I mars i år lanserade Trans Union till exempel sin AI Analytics Orchestrator Agent, som byggts med hjälp av One Tru-plattformen och drivs av Googles Gemini-modeller. Agenten används redan internt av Trans Union för att förbättra analyserna och kan även användas av kunder för att köra sofistikerade dataanalyser utan behov av data scientists.
Många kunder använder Trans Unions data men använder inte andra lösningar och plattformar, säger Achanta. Den nya orkestreringsagenten har potential att hjälpa kunderna att få ut mer värde av data och öppna upp nya intäktsströmmar för företaget.
Och fler agenter är på gång, säger Achanta. Nyckeln till att få dem att fungera är orkestrerings-, styrnings- och säkerhetslagren. Att bara få en agent att göra något är mycket enkelt för vem som helst, säger han, och kan ta bara några dagar. Företaget kan också skapa agenter snabbt.
– Men jag har grunden och skyddsräcken, och agenten som sitter på min plattform använder dem alla, säger han. Det är det som ger oss kraft.
Hemligheten bakom att få AI-agenter att uppföra sig är att separera uppgiftens lager och tilldela varje lager till ett annat system, där varje system fungerar under en uppsättning begränsningar. Denna strategi begränsar den skada en enskild agent kan åstadkomma, skapar ett system av kontroller och balanser och begränsar de mest riskfyllda aktiviteterna till en förgenererad AI-teknik.
Hos Trans Union sker till exempel det centrala beslutsfattandet genom en uppdaterad version av ett expertsystem. Det fungerar enligt en uppsättning väldefinierade, granskningsbara regler och arbetar förutsägbart, kostnadseffektivt och med låg latens. När det stöter på en situation som det inte har sett tidigare används en LLM för att analysera problemet, en annan agent kan sedan omvandla det till en ny regel, och därefter kan en människa kallas in för att granska resultaten innan den nya regeln läggs till i expertsystemet. Det finns olika agenter som förstår det semantiska lagret, interagerar med människor och utför andra uppgifter.
– Med det neurala resonemangslagret – LLM – involverar vi människor i processen, säger han. När det gäller det symboliska resonemangslagret, som är logik- och maskininlärningsdrivet, låter vi det vara automatiserat.
Så när varje agent arbetar inom mycket snäva ramar, med endast den begränsade data den behöver för just den uppgiften, och är begränsad till vad den kan göra, blir hela systemet mycket mer hanterbart och tillförlitligt.
Det är som skillnaden mellan ett löpande band, där flera arbetare var och en utför en enda, distinkt uppgift, istället för en verkstad där en enda hantverkare gör allt. Löpande bandet kan utföra arbetet snabbare och mer tillförlitligt, men id ag använder många företag sina AI-agenter som om de vore hantverkare. Det senare tillvägagångssättet kan resultera i kreativa, unika produkter, men detta är inte alltid vad ett företag behöver.
Nicholas Mattei, ordförande för ACM:s specialintressegrupp för AI och professor vid Tulane University, tycker att företag ska fokusera på att bygga in extra säkerhet vid de punkter där olika delar av agentsystemet ansluter till varandra.
– Se till att du har säkerhet i skarvarna, säger han.
Om en agent till exempel skickar förfrågningar till en e-posttjänst, ska du sätta upp en kontrollpunkt mellan de två.
– Runt luckorna mellan de opålitliga agenterna och där den traditionella programvaran finns, det är där du vill fokusera dina säkerhetsprocesser, säger han.
Att bygga en säkerhetsgrund för agentbaserad AI
I en Jitterbit-undersökning av 1 500 it-chefer som publicerades i mars är AI-ansvarsfullhet – säkerhet, granskningsbarhet, spårbarhet och skyddsräcken – den viktigaste faktorn när det gäller det slutgiltiga köpbeslutet av AI, före implementeringshastighet, leverantörens rykte och till och med TCO. Säkerhet, styrning och risker för dataintegritet var också de viktigaste frågorna som hindrade AI-initiativ från att gå i produktion, före kostnader och integrationsutmaningar. Och företagen har rätt att vara oroliga.
Tidigare i år lyckades forskare vid cybersäkerhetsföretaget Code Wall bryta sig in i McKinseys nya AI-plattform, Lilli. Med hjälp av ett eget AI-verktyg uppgav forskarna att de kunde få tillgång till 47 miljoner chattmeddelanden, 728 000 filer, 384 000 AI-assistenter, 94 000 arbetsytor, 217 000 agentmeddelanden, nästan 4 miljoner RAG-dokumentbitar samt 95 systemprompter och AI-modellkonfigurationer.
”Det här är årtionden av McKinseys egen forskning, ramverk och metoder – företagets intellektuella kronjuveler som ligger i en databas som vem som helst kan läsa”, skrev forskarna.
Anledningen? Av över 200 offentligt exponerade API-ändpunkter krävde 22 ingen autentisering. Det tog bara två timmar för forskarna att få fullständig läs- och skrivåtkomst till Lillis hela produktionsdatabas. McKinsey reagerade snabbt på larmet, åtgärdade de oautentiserade ändpunkterna och vidtog andra säkerhetsåtgärder.
“Vår utredning, som stöddes av ett ledande externt forensikföretag, fann inga bevis för att kunddata eller konfidentiell kundinformation hade kommit i händerna på denna forskare eller någon annan obehörig tredje part”, sa företaget i ett uttalande.
IDC säger att incidenten understryker hur farligt ett intrång i ett AI-system kan vara för ett företag.
– De flesta företag tänker fortfarande på AI-risker i gårdagens termer: dataläckage, felaktiga resultat och skada på varumärkets rykte, säger Alessandro Perilli, IDC:s vice vd för AI-forskning. Det är allvarliga problem, men den större risken blir att delegera befogenheter till AI-system.
Genom att få tillgång till en agentbaserad AI-plattform kan en angripare inte bara se något de inte ska se, utan också i hemlighet ändra hur företaget agerar. Och att säkra agentbaserade AI-system i företagsstorlek som Lilli är bara halva utmaningen. Enligt Gartner misstänker 69 procent av organisationerna att anställda använder förbjudna AI-verktyg, och 40 procent kommer att drabbas av säkerhets- eller efterlevnadsincidenter fram till 2030 som en följd av detta.
Men de tillgängliga upptäcktsverktygen är inte helt redo att hitta AI-agenter, säger Gartner.
– Om jag frågade dig hur många agenter som körs i ditt företag just nu, var skulle du gå för att kolla upp det?, frågar Swaminathan Chandrasekaran, global chef för AI- och datalaboratorier på KPMG, som nu har flera tusen AI-agenter i produktion.
– Har de alla blivit integrerade och har de identiteter? Har de genomgått en ordentlig autentiseringsprocess och vem ansvarar för dem? Den delen av infrastrukturen finns inte.
Verktyg börjar dock dyka upp, eller så skapar företagen egna lösningar, säger han.
– Det är det som kommer att ge cio:er sinnesro.
Vi ser redan offentliga exempel på enskilda anställda som använder kraftfull agentisk AI med negativa konsekvenser. Summer Yue, Metas alignment director, bestämde sig nyligen för att använda Open Claw, ett viralt agentiskt AI-verktyg med öppen källkod, för att hantera sin inkorg. Efter att det fungerat i en testinkorg satte hon in det på riktigt.
”Inget gör en så ödmjuk som att be Open Claw att bekräfta innan det agerar och sedan se den snabbt radera hela inkorgen”, skrev hon på X. ”Jag kunde inte stoppa det från min telefon. Jag var tvungen att springa till min Mac mini som om jag skulle desarmera en bomb.”
Tidigare kunde en anställd ladda upp känslig information till en chattbot eller be den skriva en rapport som de sedan kopierade och klistrade in och lät som om den var deras egen. När dessa chattbotar utvecklas till fullfjädrade agentbaserade system har agenterna nu förmågan att göra allt som en användare har behörighet att göra, inklusive att få tillgång till företagssystem.
För att hantera denna nya säkerhetsrisk måste företagen gå från roll- och identitetsbaserade kontroller till avsiktsbaserade, säger Rakesh Malhotra, chef för digitala och nya tekniker på EY.
Det räcker inte att fråga om en agent har behörighet att komma åt ett system för att göra en ändring i en post, säger han. Företag måste kunna fråga varför du ändrar detta. Det är en stor utmaning just nu.
– Observationsstacken fångar inte upp avsikten bakom varför agenten gjorde något, säger han. Och det är verkligen viktigt att förstå. Förtroende bygger på avsikt, och det finns inget sätt för något av dessa system att fånga upp avsikten.
Om en mänsklig anställd försöker omstrukturera hela kodbasen skulle hen bli ombedd att ange en god anledning till detta.
– Och om du omstrukturerar utan någon specifik anledning kanske du inte borde göra det, säger Malhotra. När det gäller människor finns det sätt att avgöra detta. Jag vet inte hur man gör det med agenter.
Att bygga en semantisk datagrund för agentbaserad AI
Achanta från Trans Union nämner upprepade gånger den semantiska grunden för företagets One Tru-plattform. En sådan förståelse av information hjälper systemen att förstå inte bara vad data är, utan också vad den betyder och hur den relaterar till annan data. Gartner säger att utveckling av ett semantiskt lager nu är ett måste för företag som implementerar AI.
“Det är det enda sättet att förbättra noggrannheten, hantera kostnaderna, avsevärt minska AI-skulden, samordna system med flera agenter och stoppa kostsamma inkonsekvenser innan de sprider sig”, säger analysföretaget.
Gartner förutspår att universella semantiska lager år 2030 kommer att betraktas som kritisk infrastruktur, i likhet med dataplattformar och cybersäkerhet. Och agenter behöver sammanhang för att kunna göra något meningsfullt med data, säger KPMG:s Chandrasekaran. Det är där företagets kunskap finns.
– Det är företagets nya immateriella tillgång, säger han. Sammanhanget är den nya vallgraven.
För John Arsneault, cio på Goulston & Storrs, är skapandet av en solid datagrund också ett sätt att undvika leverantörsberoende.
– Om du köper saker och flyttar in dina data i dem för att skapa automatiserade arbetsflöden eller agentbaserade arbetsassistenter, kommer du att ha svårt att ta dig ur det, säger han. Men om du väljer en datacentrerad strategi kan du åtminstone byta från det ena till det andra om marknaden förändras.
Advokatbyrån har migrerat sina klientorienterade arbetsprodukter till Net Documents, ett dokumenthanteringssystem som är specifikt inriktat på den juridiska branschen. Och resten av de data som företaget samlar in hamnar i Entegratas juridiska data lakehouse.
– Vårt mål är att alla våra andra applikationer så småningom ska peka mot det datalagret, säger han. Då kommer vi att ha dessa två miljöer där all byråns data finns, vilket gör att vi kan lägga vilket AI-verktyg vi än använder ovanpå.
Det kommer också att göra dataflödena enklare att hantera, tillägger han, och göra det möjligt för byrån att snabbt anpassa sig till vilken AI-teknik som än kommer härnäst.
– Oavsett om det gäller generativ AI, agentisk AI eller Anthropic-teknik är det mycket svårt att hänga med med Cowork-plugin för juridik, säger han. Och det förändras var sjätte månad.
Agentisk orkestrering
Den sista delen av pusslet med agentisk infrastruktur, efter att säkerhetsbarriärer har satts på plats och ett användbart datalager har skapats, är orkestrering. Agentiska AI-system kräver att agenter kommunicerar med varandra och med mänskliga användare, samt interagerar med datakällor och verktyg. Det är en komplicerad utmaning, och denna teknik är fortfarande i sin linda, även om den utvecklas snabbt. MCP är ett sådant exempel och är en viktig pusselbit för att lösa orkestreringspusslet. AI-leverantörer har varit anmärkningsvärt villiga att samarbeta här.
– När sociala nätverk föddes och Facebook och Twitter diskuterade ett standardprotokoll för interaktion ville ingen anamma konkurrenternas protokoll, säger Agustin Huerta, chef för digital innovation och teknik på Globant, ett företag inom digital transformation. Nu går alla via MCP och det blir mer moget som ett standardprotokoll.
Men det betyder inte att agentintegrationen är löst. Enligt en Docker-undersökning bland mer än 800 it-beslutsfattare och utvecklare är den operativa komplexiteten i att orkestrera flera komponenter den största utmaningen när det gäller att bygga agenter.
I synnerhet säger 37 procent av de tillfrågade att orkestreringsramverk är för bräckliga eller omogna för produktionsanvändning, och 30 procent rapporterar brister i testning och synlighet i komplexa orkestreringar.
Dessutom, även om 85 procent av teamen är bekanta med MCP, säger de flesta att det finns betydande problem med säkerhet, konfiguration och hanterbarhet som hindrar driftsättning i produktion. Och det finns andra integrationsproblem som företag måste hantera.
– Ett problem som ännu inte har lösts är hur man ska få en ordentlig instrumentpanel för att styra alla dessa agenter, för att veta exakt vad som händer med var och en av dem, säger Huerta.
– En instrumentpanel låter dig övervaka agenter byggda med Open AI, och en är för agenter som finns på Salesforce, men ingen kan visa telemetri i en central instrumentpanel för kontroll, granskning och loggning.
För företag som just har börjat implementera agenter, eller som håller sig till en enda plattform, är detta ännu inte ett problem, tillägger han, men när de utnyttjar ett större nätverk av agenter kommer de att börja uppleva utmaningarna. Globant bygger till exempel sin egen interna kontrollpanel för agentbaserad AI.
Och på Brownstein Hyatt Farber Schreck, en 50 år gammal advokatbyrå med cirka 700 anställda och kunder över hela USA, finns det flera områden där AI används, bland annat ett system för att generera anbud.
Normalt kan det ta flera personer flera dagar att granska en kunds förfrågan om ett förslag, gå igenom handskrivna anteckningar eller mötesprotokoll och sammanställa annat relevant material, säger Andrew Johnson, byråns it-chef.
– Vi kan mata in all den informationen i en dator och extrahera nyckelkriterier för att ta fram ett högkvalitativt första utkast på några minuter, säger han.
Flera agenter krävs för olika delar av processen – en för att extrahera framgångskriterier eller personalbehov, en för att leta efter tidigare fall och lärdomar, och andra för prissättning och varumärkesstandarder.
– Var och en av dessa agenter är autonom och måste samordnas så att resultatet från varje agent matas in i nästa steg, säger Johnson.
För det mesta innebär det ett RAG-system, eftersom de flesta av de äldre plattformar som företaget använder ännu inte har integrerat ett MCP-lager. Beroende på uppgiften kan enskilda agenter drivas av olika modeller, vilket är ytterligare ett samordningslager som måste hanteras. Sedan finns det kostnadsövervakning. Om en AI-agent eller en grupp agenter hamnar i en oändlig återkopplingsloop kan inferenskostnaderna snabbt stiga.
– Vi är medvetna om problemet, även om vi ännu inte har sett det uppstå, säger Johnson. Så vi har övervakning på plats. Om vi överskrider tröskelvärdena reagerar vi på det.
Oavsett strategier eller åtgärder för att hantera bakslag förändras allt som har med AI att göra snabbare än något annat företag har sett tidigare.
– Jag har arbetat med teknik i 25 år och jag har aldrig sett något liknande, säger EY:s Malhotra. De snabbast växande företagen i företagshistorien har alla skapats under de senaste tre till fyra åren. Tillväxten i användningen är helt utan motstycke. Och jag pratar hela tiden med kunder som implementerar tekniker som var mycket relevanta för nio eller tio månader sedan, och alla har gått vidare.