AI-verktyg vs. AI-agenter
För att förstå de olika skyldigheterna som följer mellan AI-verktyg och AI-agenter krävs att en distinktion görs mellan begreppen.
Ett AI-verktyg fungerar ofta som ett passivt program som utför en avgränsad uppgift på en eller flera instruktioner – det kan till exempel vara en chatbot som svarar på frågor eller ett prognosverktyg som ger en analys. Ett AI-verktyg kräver tydliga kommandon från en användare för varje moment.
En AI-agent har en högre grad av autonomi jämfört med ett AI-verktyg. Den kan planera och resonera kring hur den ska lösa en uppgift, ta egna initiativ och utföra flera steg utan att en människa ger nya instruktioner för varje delmoment. AI-agenter kan bryta ned komplexa problem, använda externa verktyg (som databaser, sökmotorer eller andra program) och, i alla fall rent teoretiskt, lära sig av tidigare interaktioner för att förbättra sitt beslutsfattande över tid. Med andra ord: en AI-driven chatbot kan vara ett verktyg, och om den kopplas ihop med andra system och får mandat att agera (till exempel boka möten, skicka e-post eller fatta ekonomiska beslut) övergår den till att bli en agent. Gränsen är flytande, men autonomi, förmågan att välja hur en uppgift ska lösas och möjligheten att lära sig av och under processen är det som kännetecknar en AI-agent.
När vi klargjort var gränsen går mellan ett AI-verktyg och en AI-agent återstår den praktiska frågan: var gör skillnaden störst avtryck? Distinktionen är nämligen mer än akademisk — den avgör vilka skyldigheter och säkerhetsåtgärder företag som använder olika typer av AI-lösningar behöver vidta.
Praktiska risker och konkreta användningsområden
AI-agenter för med sig flera juridiska risker; vissa är förlängningar av redan kända utmaningar som förstärks när AI:n är mer autonom, andra risker är nya och unika för agenter.
Diskriminering och data-bias
En tidigare känd risk som förstärks genom användning av AI-agenter är diskriminering och data-bias. Termen ”skit in, skit ut” används ofta när det kommer till AI och innebär att resultaten från en AI-modell bara är så pålitliga och effektiva som den data som använts vid träningen och den prompt som modellen har möjlighet att generera resultatet på. Vid användning av agenter finns en risk för att data-bias förstärks exponentiellt genom att en diskriminerande tendens förstärks i varje steg, utan att en människa upptäcker och motverkar det. Inom HR kan AI-agenter sortera hundratals CV:n, föreslå kortlistor och till och med genomföra första intervjufrågor via chatt eller video; en enorm tidsvinst för rekryterare, men samtidigt ett scenario där risken för diskriminering blir särskilt påtaglig. Ett varnande exempel var Amazons rekryterings-AI som premierade manliga sökande eftersom den tränats på historiska data där män dominerade anställningarna, när denna bias upptäcktes skrotades verktyget av Amazon. Kort sagt, diskriminering och data-bias är risker som blir mer svårupptäckta vid användning av agenter då en mänsklig övervakare kommer in senare i processen.
Företagshemligheter och integritet
En annan risk som förstärks genom användning av AI-agenter är risken för att företagshemligheter, annan hemlig information eller personuppgifter oavsiktligt delas.
Uppgiftsläckage kan bero på olika anledningar, till exempel genom så kallad ”prompt injections” där en illasinnad användare kan få ut information som AI:n har tillgång till (via systemprompten) och som inte är tänkt att delas eller genom att användare delar känslig information i öppna modeller. Ett annat exempel där hemlig information läckts genom en AI-modell är när programmerare oavsiktligt delat källkod i ChatGPT som sedan spridits vidare.
Det är givetvis alltid viktigt att säkerställa att output från en AI-modell inte sprids utanför organisationen och att inte dela hemlig information eller personuppgifter i AI-system som inte är säkra. Genom AI-agenter kan dock sådan delning ske utan användarens direkta input.
AI-agenter förhöjer risken för att hemlig information eller personuppgifter sprids eftersom agenten potentiellt kan använda informationen på det sätt som AI:n finner bäst i flera, oövervakade, led. När vi nu ändå är inne på integritet, så finns det flera begränsningar under GDPR för hur en registrerads personuppgifter får behandlas som lätt kan överträdas vid användning av AI-agenter. Ett exempel är bestämmelserna om att en registrerad ska informeras om hur dennes personuppgifter används, samt om och till vilka dessa personuppgifter kommer att delas. Vid användning av agenter så är det inte möjligt att förutse exakt hur en modell som har tillgång till personuppgifter kan komma att använda dem, vilket leder till att risken för överträdelser av dataskyddslagstiftning blir påtaglig.
Felaktig information till kunder och falska nyheter
En annan risk är att AI-agenter som agerar inom kundservice tillhandahåller felaktig information till kunder och sätter företag i klistret. Exempelvis blev Air Canada betalningsskyldiga efter att dess AI-bot erbjöd en konsument en icke-existerande rabatt. Detta ärende togs hela vägen till domstol där Air Canada förlorade och domaren noterade att:
”Air Canada argues it cannot be held liable for information provided by one of its agents, servants, or representatives – including a chatbot. /…/ While a chatbot has an interactive component, it is still just a part of Air Canada’s website. It should be obvious to Air Canada that it is responsible for all the information on its website. It makes no difference whether the information comes from a static page or a chatbot.”
Det är troligt att domstolar i flera länder, inte minst Sverige med sitt starka konsumentskydd, skulle hålla företag ansvariga för information, råd och aktioner utförda av företags AI-modeller.
AI-agenter som används inom media eller för kommunikation till allmänheten kan även de bidra till att falska nyheter och felaktig information sprids. Det är redan ett känt fenomen att AI-modeller blivit duktiga på att skapa deepfakes eller manipulerade bilder eller videor som ser äkta ut. Det är därför av största vikt att säkerställa autentiska källor såväl för nyhetskanaler, offentliga myndigheter som andra som verkar inom mediabranschen. En utmaning som kan uppstå hos AI-agenter är att de repeterar AI-genererat material så att även välunderbyggda artiklar egentligen endast består av ”AI slop”, dvs. media (text, bilder och videos) som tagits fram av AI. Det blir en ond cirkel där AI-genererat (falskt) material upprepas och förstärks av andra AI-modeller. Nya studier visar även att AI-agenter har en tendens att i grupp skapa ”collective bias”, dvs. att agenter faller för en form av grupptryck, vilket leder till att vissa budskap förstärks medan andra försvagas trots att den enskilda agenten är programmerad för att vara neutral.
Cybersäkerhet och regulatorisk efterlevnad
Användning av AI-agenter skapar även nya risker avseende cybersäkerhet och regelefterlevnad. Vi har redan sett exempel på hur användning av AI-system kan manipuleras. Ett exempel är när en amerikansk Chevrolet-handlares chattbot lurades att erbjuda en SUV för 1 dollar, Denna cyberrisk kan leda till allvarligare följder om mer sofistikerade AI-agenter blir utnyttjade genom hackerattacker eller andra typer av manipulationer. Konsekvenserna av AI-agenter som erbjuder kriminellt låga priser på bilar kan visserligen påverka den enskilda försäljaren men agenter som används för att genomföra stora transaktioner, tar beslut om anställningar eller används för analys inom industrin kan bli mer kostsamma och potentiellt systemkritiska.
En ny risk är AI-agenter som använder olagliga metoder för att genomföra sina uppdrag. Detta kan inkludera AI-agenter som hackar digitala system för att tillskansa sig hemlig information, olovligen använder upphovsrättskyddat material eller använder sig av olagliga verktyg. Forskare har bland annat observerat hur en AI-agent, i testmiljö, ägnat sig åt insiderhandel och sedan ljugit om det. Forskare har även varnat för att det finns en risk för att AI-agenter kan börja samarbeta och ägna sig åt marknadsmanipulation genom att skapa botnätverk för att påverka aktiekurser.
Förändrar synen på hur vi ser på AI
AI-agenter innebär ett tydligt skifte från ”passiva” AI-verktyg till mer självständiga program som kan planera, välja metod och agera. AI-agenternas kraft gör också att de potentiella negativa effekterna vid fel blir större. När autonomin ökar förflyttas ansvaret för användaren i praktiken från att ”granska ett svar” till att ”granska ett förslag till handling”. Eftersom kedjan från initial input till output hos en AI-agent blir längre och mer svår överblickbar bör verksamheter som använder agenter behandla dem som digitala medarbetare och bygga in samma interna kontroll, spårbarhet och ansvarsfördelning som för mänskliga beslut.
AI-agenter är här för att stanna och kommer sannolikt bli effektivare och kraftfullare. Det är upp till varje verksamhet att se till att dessa används på ett säkert och ändamålsenligt sätt. Vi hjälper dig med allt från riskanalys, till policies och implementation för att se till att nyttan överväger risken så att AI-agenter kan bli trygga digitala medarbetare.