Profile Picture Sebastian Küpers

Sebastian Kuepers

Chief Transformation Officer, Plan.Net Group

AI-agenter kan arbeta självständigt och samarbeta för att lösa komplexa uppgifter - betydligt bättre än enskilda agenter och ojämförligt bättre än AI-agenter utan ett agentiskt arbetsflöde. Eftersom det i framtiden kommer att finnas miljarder AI-agenter som kan stödja oss i alla aspekter av livet, uppstår frågan: Vad händer egentligen när dessa agenter interagerar med varandra utan mänsklig inblandning? Vi vill ju trots allt vara säkra på att vi kan lita på agenternas resultat.

Ett exempel: En turist använder ett AI-agentsystem för att planera en resa. Agenten som ansvarar för flygresan rekommenderar ett flygbolag och specifika flygdetaljer. När turisten försöker boka via flygbolaget visar det sig att den flygning som agenten rekommenderade inte finns. Detta leder till slutsatsen att det inte var en agent som ägs av ett flygbolag och som har tillgång till relevant data som utförde denna uppgift. Det är därför viktigt att AI-agenter kan bevisa sin identitet. Först då kan de hållas ansvariga för den information de tillhandahåller.

 

Förtroende är bra, kontroll är bättre

Vad som behövs är ett system som gör det möjligt för agenter att samarbeta snabbt och enkelt samtidigt som det ger säkerhet och transparens. AI-agenter har tillgång till en mängd olika datakällor och bearbetar enorma mängder information som de använder för att fatta beslut. Från utsidan kommer det att vara nästan omöjligt att förstå vad en enskild agents resultat baseras på. När antalet interagerande AI-agenter växer kommer det dessutom med all säkerhet att finnas några få bedrägliga agenter bland dem. Förtroendet för agentsystem kan snabbt gå förlorat om någon förlitar sig på ett felaktigt resultat från en bedräglig agent.

AI-agenter kan förbättra varandra. I ett väldesignat agentsystem finns det till exempel en agent vars enda uppgift är att kontrollera andra agenters resultat. Dessutom har AI-agenter korttids- och långtidsminne, vilket gör att de kan lära sig och ständigt förbättra sig för varje uppgift. System som försöker identifiera svarta får bland agenterna testas redan idag. Agenter kan dock begå misstag, missförstå varandra, göra falska uttalanden eller förbise oärliga agenter. Därför behövs ett system som gör misstagen spårbara för människor.

Den teknik som krävs finns redan: Blockkedjan. Ett blockkedjebaserat protokoll som identifierar varje agent och offentligt och oföränderligt registrerar agenternas interaktioner ger just denna transparens och ansvarighet. Om misstag inträffar kan de tydligt spåras tillbaka till en specifik åtgärd och därmed till en specifik agent.

 

Fördelarna med blockkedjeprotokoll

Frågan om förtroende uppstår också med blockkedjor: Är de säkra? Eftersom de är decentraliserade system är det nästan omöjligt att manipulera data. Hashar, ett slags digitala fingeravtryck för data, kan användas för att verifiera om data har ändrats. Detta säkerställer att ingen transaktion eller information som utbyts mellan agenter har manipulerats.

Med Masumi har vi utvecklat ett blockkedjebaserat protokoll som är utformat för att driva samarbete mellan AI-agenter. Varje AI-agent i protokollet tilldelas en tydlig identitet genom en decentraliserad identifierare (DID) och måste logga hashes av sina utdata på den underliggande blockkedjan. Denna process gör det möjligt för mottagarna att verifiera att de resultat som tillhandahålls är äkta, vilket främjar ansvarsskyldighet och transparens. En annan viktig fördel: Agenter kan betala varandra för sina tjänster genom protokollet. Detta är ett viktigt steg mot en AI-agentekonomi.

I slutändan handlar det om att agenter, och i synnerhet agentsystem, kan avlasta oss från en otrolig mängd intellektuellt arbete och kommer att vara oumbärliga i framtiden. Ett blockkedjeprotokoll ger det säkra ramverk - den transparens och det ansvarstagande som sådana autonoma system behöver.

Vill du läsa mer?

Tillbaka till #17