Tre år sedan ChatGPT lanserades blickar nu branschen framåt mot nästa stora innovationsvåg: AI-agenter. Dessa agenter utlovar att kunna hantera uppgifter från start till mål åt sina användare. Men med ökande autonomi kommer också större risker.
Utmaningen för företagen kommer att vara att ge anställda möjlighet att nyttja tekniken utan att utsätta verksamheten för ökade cyberhot. Lyckligtvis finns det redan en färdig metod för att göra detta: Zero Trust.
Med enorma vinster kommer nya risker
AI-agenter är ett stort steg framåt jämfört med generativa AI-chattbotar (GenAI). Medan generativ AI skapar och sammanfattar innehåll reaktivt efter uppmaningar, är AI-agenter utformade för att proaktivt planera, resonera och agera autonomt för att utföra komplexa uppgifter i flera steg och justera sitt beteende vartefter de får ny information. Men samma egenskaper som gör tekniken så spännande utgör också anledning till oro. AI-agenter är inte lika övervakade som generativ AI, och blir därför lättare att attackera utan att användarna märker något. Då den kan fatta beslut med oåterkalleliga konsekvenser som att radera filer eller skicka e-post till fel mottagare, kan stor skada uppstå om inte säkerhet byggs in.
AI-agenter kan planera och röra sig fritt på internet vilket skapar stora möjligheter att manipulera dem. De är samtidigt djupt integrerade i det bredare digitala ekosystemet och kan samla på sig omfattande kunskap om sina användares beteende, vilket gör dem tacksamma att använda för att komma åt mycket känsliga konton och information.
Åtkomstkontroller blir A och O i AI-miljön
Om organisationer ska skapa en digital arbetsstyrka med AI-agenter måste de börja med identitets- och åtkomsthantering (IAM). Utmaningen är flexibiliteten i AI-agenterna. Ta ChatGPT-agenten som ett exempel. Den kan boka möten, skicka e-post, interagera med webbplatser och mycket mer – flexibiliteten gör den till ett kraftfullt verktyg. Men, det gör det också svårare att tillämpa traditionella modeller för åtkomstkontroll, som byggdes kring mänskliga beteenden och tydliga ansvarsområden.
Vi måste ompröva åtkomstkontrollen för den nya AI-eran. Här blir Zero Trust, med tankesättet att aldrig lita på, alltid verifiera, väldigt värdefullt.
Så hur ser Zero Trust ut i en agentbaserad AI-miljö? Utgå från att agenterna kommer att utföra oavsiktliga och svårförutsägbara handlingar, och sluta tänka på AI-agenter som förlängningar av befintliga användarkonton. I stället bör de ses som separata identiteter med egna inloggningsuppgifter och behörigheter. Tänk på det som ”segmentering”, men inte i traditionell Zero Trust-bemärkelse av nätverkssegmentering.
Nu handlar det om att begränsa agenternas behörigheter så att de bara kan komma åt de system och data de behöver för att utföra sitt arbete, och inget mer. I vissa situationer kan det också vara användbart att tillämpa tidsbegränsade behörigheter.
När det kommer till multifaktorautentisering (MFA) så fungerar tyvärr traditionell MFA inte särskilt bra för agenter. Istället kan mänsklig övervakning fungera som ett andra verifieringslager, särskilt för högriskåtgärder. Detta måste vägas mot risken för ”samtyckeströtthet”. Om agenter ber om för många verifieringar kan användarna börja godkänna åtgärder reflexmässigt.
En annan viktig del i Zero Trust är visibilitet. Företag behöver insyn i vad agenterna gör. Inrätta därför ett system för att logga deras åtgärder och övervaka avvikande beteende.
AI-agenter befinner sig fortfarande i ett tidigt skede. Men för de som vill nyttja tekniken är det viktigt att vara säkra på att riskerna hanteras på ett lämpligt sätt – och här är Zero Trust i nuläget den absolut bästa metoden.
Martin Fribrock, Sverigechef på Trend Micro
