Utforskande av ny teknik, fokus AI-agenter i digitala tvillingar

Utforskande av ny teknik, fokus AI-agenter i digitala tvillingar

En nationell hubb kommer behöva driva frågor kopplat till teknikutvecklingen som sker. Ett etablerat nätverk kan identifiera områden där teknikutvecklingen sker snabbt och fatta beslut om ett gemensamt utforskande där resultat och eventuella rekommendationer kan komma alla aktörer till gagn. Inom detta projekt utforskade DTCC hur AI-agenter inom digitala tvillingar.

Vad är en AI-agent? Här avser vi ett datorprogram som en AI-modell (LLM) kan använda för att utföra uppgifter som modellen inte själv kan lösa. Agenterna kan planera, genomföra och samarbeta kring delmoment och på så sätt lösa uppgifter som är för komplexa för en enskild komponent. För att olika agenter ska kunna fungera ihop använder vi MCP (Model Context Protocol), en de facto-standard som möjliggör förutsägbart samarbete mellan agenter från olika utvecklare.

Ett konkret exempel av användningen av en agent vi har utvecklat inom projektet är att man kan skriva “Bygg en 2 km × 2 km stor 3D-modell av Göteborg, centrerad på Brunnsparken.” För att utföra detta delar AI-modellen automatiskt upp uppgiften I flera delar som olika agenter kan lösa. En agent som vet hur man hittar koordinaterna för ’Brunnsparken’ och, vid behov, konverterar till rätt koordinatsystem. En annan agent vet var och hur man laddar ner den geodata som behövs, och en sista agent kan omvandla denna geodata till en 3D-modell. Från användarens perspektiv ser dom bara att dom skriver sin förfrågan och får tillbaka en 3D-modell.

AI-agenter kan användas både fristående och som byggblock i större system för digitala tvillingar. Om de utformas generellt kan samma agent återbrukas i flera sammanhang. Ett konkret exempel är en agent som söker och hämtar geodata från olika källor: den är lika användbar i ett mer traditionellt GIS-flöde som i ett större system för digitala tvillingar

För organisationer som vill börja utforska AI-agenter i ett digital-tvilling-sammanhang rekommenderar vi att starta med små, väldefinierade agenter som löser konkreta uppgifter som redan finns i dag. Detta ger snabb uppstart, tidiga lärdomar om vad som fungerar respektive inte fungerar och gör det lättare att förankra AI-agenter i organisationen.

En tidig nyckel är att bestämma hur agenter ska installeras och köras samt vilken LLM som ska användas. En molnbaserad LLM ger vanligtvis högre modellkvalitet och bättre prestanda än vad de flesta organisationer kan drifta lokalt. Kostnaderna blir oftast en fast månadsavgift utan nya hårdvaruinvesteringar, och det går snabbt att komma i gång.
En lokal LLM är däremot ofta nödvändig i situationer med säkerhets- eller sekretesskrav, eller i organisationer med strikta policyer för hur data får hanteras. Det är också lättare att logga all kommunikation och resultat, vilket kan vara viktigt I vissa sammanhang. Att drifta lokalt kräver betydande hårdvaruresurser och expertis för att nå kapacitet som matchar mer komplexa agentflöden, vilket behöver tas med i planeringen.

Frågan om var agenterna körs handlar mycket om drift, snabbhet och dataåtkomst. Man kan tänka sig att en central nationell hubb för digitala tvillingar kan komma ta på sig rollen att utveckla och drifta flera gemensamma AI-agenter som kan utföra återkommande uppgifter som är allmänna för flera organisationer och plattformar. De kan även utveckla agenter som kan fungera som referensimplementationer som aktörer kan använda för att bygga agenter som är specifika till dem och deras behov och data.

Att köra agenter på en server centralt i organisationen är oftast smidigast när det kommer till att sköta uppdateringar och att följa upp hur agenterna används och vilka resultat de ger. Man behöver också bara konfigurera och definiera åtkomst till databaser och andra datakällor på ett ställe. Centraliserad drift underlättar även säkerhetsövervakning och skalbarhet. Dock om agenterna måste använda filer eller data som ligger lokalt på datorn, eller om agenten behöver använda programvara på datorn för att bearbeta eller visa datan, så måste de installeras lokalt.

Man kan, och bör, kombinera båda dessa lösningar. I första hand borde agenter i så stor grad som möjligt köras på en centraliserad server, och endast de agenter som verkligen behöver tillgång till data eller programvara lokalt på användarens dator bör installeras lokalt. Här kan en nationell hubb vara med att ta fram riktlinjer och best practices för hur organisationer kan sätta upp sådana här plattformar på ett så bra sätt som möjligt.

Slutligen så är det vikitgta att komma ihåg att säker implementation av AI-agenter kräver tydliga ramar för beslutsfattning, autentisering, behörighet och loggning. Organisationer måste även tänka på GDPR och andra ramverk, samt definiera vem som har ansvar för agentbeslut, särskilt vid hantering av känslig geodata eller data som används som underlag för beslut. Även här har en nationell hubb en viktig roll genom att tillhandahålla säkerhetsriktlinjer, certifieringsprocesser och standardiserade ramverk som aktörer kan utgå från.