Autonome og agent-baserte AI-systemer kan handle på vegne av virksomheten og samhandle med flere systemer samtidig. Dette gir økt effektivitet, men introduserer også nye sikkerhets-, styrings- og ansvarsutfordringer som må forstås før teknologien tas i bruk.

Autonome og agentbaserte AI-systemer blir stadig mer aktuelle i norske og internasjonale virksomheter.
I motsetning til mer kjente AI-agenter, som typisk utfører enkle og ofte generiske oppgaver og krever menneskelig vurdering av resultatene, er agentisk AI et sett med AI-agenter med svært spesifikke oppgaver.
Disse samarbeider for å oppnå et mer komplekst resultat, ofte med færre feil og med en viss grad av autonomi.
Tesla Autopilot er et eksempel der flere agenter samarbeider ved å hente og bearbeide informasjon fra ulike systemer for å gi den beste ruten, trafikkdata og lignende.
I praksis skjer dette fortsatt på en relativt begrenset måte, ofte knyttet til små og tydelig avgrensede oppgaver. Dette ser man blant annet i løsninger som Security Copilot eller Access Review-agenter fra Microsoft. Slike agenter krever fremdeles betydelig vedlikehold, eksperimentering og kontinuerlig oppfølging, og automatiserte handlinger handler i stor grad om rapportering eller klassisk datainnsamling.
Likevel markerer utviklingen et viktig skifte, og det introduserer risiko virksomheter må forstå før teknologien tas i bruk.
Tidligere har AI (Artificial Intelligence), også omtalt som KI (kunstig intelligens), hovedsakelig vært et verktøy for analyser, rapportering og automatiserte oppgaver. Agentbaserte systemer opererer annerledes. De kan samhandle med flere systemer samtidig, hente data fra ulike kilder, generere forslag til beslutninger og utføre handlinger som påvirker både interne prosesser og kundekontakt.
For virksomheter betyr dette at kontrollstrukturen må revurderes. Handlinger som tidligere krevde menneskelig vurdering, kan nå skje autonomt. Konsekvensene av feilaktige beslutninger kan bli betydelige, både teknisk, juridisk og for virksomhetens omdømme.
En god forståelse av denne nye typen aktør er derfor avgjørende før teknologien tas i bruk.
Med autonome agenter følger flere typer risiko. Dataintegritet og lekkasje er blant de mest umiddelbare. Når AI-agenter har tilgang til sensitive data, finnes risiko for utilsiktet eksponering. Systemer som kombinerer informasjon fra flere kilder, kan avsløre mønstre eller innsikt virksomheten ikke har kontroll over.
En annen utfordring er uforutsette handlinger. Selv små feil i målformulering eller manglende kontekst kan føre til handlinger som endrer data, systeminnstillinger eller brukeropplevelser. Tradisjonelle sikkerhetsmekanismer er ofte utviklet for mennesker, og dekker ikke alltid autonome digitale aktører.
Dette skaper et gap i styring og ansvar som må fylles med nye prosesser og kontroller.
Erfaringer fra virksomheter som faktisk har oppnådd ROI og målbar gevinst fra AI, viser at det lønner seg å segmentere både sikkerhetsmekanismer og arbeidsprosesser.
Når AI settes til én avgrenset og gjennomsiktig oppgave, som å oppsummere et datasett, blir det langt enklere å verifisere mellomresultater og oppdage feil. Motsatt kan komplekse agenter som utfører mange mikrooppgaver på vei mot et omfattende sluttprodukt, gjøre det vanskelig å forstå hva som faktisk har skjedd underveis.
Manglende innsyn i agentens mellomsteg øker både operasjonell risiko og kravene til kontrollstrukturer.
Virksomheter som vurderer agentbasert AI, bør først etablere tydelige rammer for hva systemene kan gjøre, hvilke data de får tilgang til og hvordan handlingene overvåkes. Logging og sanntidsovervåkning gjør det mulig å oppdage avvik tidlig og er essensielt for å redusere risiko.
Prinsippet om minst mulig tilgang bør gjelde også for digitale agenter. Å begrense systemtilgang til det som er nødvendig for oppgaven, minimerer potensielle skader ved feilhandlinger.
Før agentene settes i produksjon, bør de testes og simuleres i realistiske scenarioer for å avdekke sårbarheter og uforutsette konsekvenser.
Det er også viktig å etablere samarbeidsprosesser mellom ulike deler av virksomheten, inkludert IT, sikkerhet og ledelse. På denne måten sikrer man at beslutninger tatt av agentene kan spores, og at det finnes prosedyrer for håndtering av uventede situasjoner.
Å implementere agentbasert AI handler ikke bare om teknologi, men også om ansvar og transparens. Virksomheter må ha klare rutiner for hvordan beslutninger og handlinger overvåkes og dokumenteres. Dette bidrar til både compliance og tillit – både internt og eksternt.
Virksomheter som planlegger og etablerer styring før de tar i bruk autonome AI-agenter, står bedre rustet til å høste gevinstene. Riktig implementering sikrer effektivitet og innovasjon samtidig som risikoene håndteres på en systematisk måte.
For virksomheter som mangler intern sikkerhetskompetanse, kan eksterne sikkerhetsrådgivere, eksempelvis CISO-kompetanse eller CISO-as-a-Service, bidra til at styring og governance er på plass fra første dag.
Les mer om vår CISO-for-Hire-tjeneste her >



