EigenCloud Challenge onthult 5 AI-agents die TEE's gebruiken voor verifieerbaar vertrouwen
Iris Coleman 13 mrt 2026 03:49
EigenCloud's innovatiewedstrijd van $10K leverde AI-agents op die hun eerlijkheid bewijzen via Trusted Execution Environments, van klokkenluidersplatforms tot geautomatiseerde onderhandelingen.
EigenCloud kondigde vijf winnende projecten aan uit zijn Open Innovation Challenge, die elk demonstreren hoe AI-agents cryptografisch kunnen bewijzen dat ze niet zijn gemanipuleerd of gecompromitteerd. De wedstrijd van februari bood $10.000 aan prijzen voor ontwikkelaars die verifieerbare agents bouwen op EigenCompute-infrastructuur.
Het kernprobleem dat deze projecten aanpakken is niet of AI de waarheid vertelt—het gaat erom of je kunt verifiëren dat een agent daadwerkelijk de code heeft uitgevoerd die hij beweert te hebben uitgevoerd. Recent onderzoek van de MASK-benchmark toont aan dat zelfs geavanceerde AI-modellen 20-60% van de tijd liegen wanneer ze onder druk worden gezet, ongeacht hun onderliggende capaciteit. Hardware-gebaseerde verificatie omzeilt dit volledig.
Hoe TEE's de vertrouwensvergelijking veranderen
Alle vijf de winnaars vertrouwen op Trusted Execution Environments, hardware-geïsoleerde processorsecties waar code draait op een manier die zelfs de operator van de machine niet kan observeren of wijzigen. Zie het als een afgesloten ruimte die een cryptografisch bewijs produceert van alles wat binnen gebeurde.
De hoofdprijs ging naar Molt Negotiation, een geautomatiseerd onderhandelingssysteem waarbij AI-agents namens mensen onderhandelen. Elke agentstrategie blijft verzegeld in zijn TEE terwijl alleen openbare aanbiedingen tussen hen worden uitgewisseld. Elke zet wordt ondertekend en afwikkeling gebeurt via on-chain escrow. De maker van het project, Khairallah AL-Awady, trok een directe vergelijking met Operation Ill Wind—het FBI-onderzoek uit 1988 dat Pentagon-functionarissen betrapte die verzegelde biedingen lekten naar favoriete aannemers.
Privacy ontmoet verantwoording
Sovereign Journalist pakt een andere vertrouwenskloof aan: klokkenluiders beschermen terwijl journalistieke integriteit wordt gewaarborgd. Bronnen dienen tips in in een TEE waar een AI-agent ze verwerkt tot rapporten. Het systeem produceert bewijs dat de rapportagelogica niet is gewijzigd—wat betekent dat als iemand de hostingprovider onder druk zou zetten om te veranderen hoe informatie wordt verwerkt, die manipulatie zou verschijnen in de verificatie. Ontwikkelaar Adithya integreerde zero-knowledge bewijzen via Reclaim Protocol zodat bronnen hun credentials kunnen verifiëren zonder hun identiteit aan de journalist te onthullen.
Swarm Mind neemt het concept multi-agent. Drie AI-agents analyseren onafhankelijk live NASA-gegevens over nabije aarde-objecten, zonnevlammen en Marsweer. Ze delen ondertekende analysefragmenten, en wanneer meerdere agents hetzelfde patroon signaleren, synthetiseert het systeem een collectief rapport. Elke claim draagt een volledig auditspoor—wie het heeft geschreven, wanneer, en bewijs dat het niet is gewijzigd.
Gaming en persoonlijke assistenten
Molt Combat creëert een competitieve arena waar AI-agents strijden in beurtengebaseerde wedstrijden. Het project verwijst naar het Absolute Poker-schandaal van 2007, waarbij insiders "god mode"-accounts gebruikten om maandenlang onopgemerkt de kaarten van tegenstanders te zien. Hier produceert elke beurt een ondertekend bewijs, en attestaties na de wedstrijd laten iedereen eerlijkheid auditen.
Alfred, gebouwd op het virale OpenClaw-framework, demonstreert een persoonlijke AI-assistent die zijn eigen gedragsconfiguratie hasht bij het opstarten. Wanneer een andere agent met Alfred wil interacteren, kan deze verifiëren dat de hash overeenkomt met de verwachte setup—geen blind vertrouwen vereist.
Wat dit betekent voor crypto-infrastructuur
De bredere implicatie? Naarmate AI-agents steeds meer financiële transacties, multiparty-coördinatie en gevoelige data afhandelen, wordt het vermogen om uitvoeringsintegriteit te bewijzen kritieke infrastructuur. EigenCloud zei dat het toegewijde tooling zal vrijgeven voor het bouwen van agents op EigenCompute, met een wachtlijst die nu open is voor vroege toegang.
Deze blijven proof-of-concept demonstraties in plaats van productiegeharde systemen. Maar ze wijzen naar een toekomst waar de vraag niet is "lijkt deze AI betrouwbaar" maar "kan deze AI bewijzen wat hij daadwerkelijk deed."
Afbeeldingsbron: Shutterstock- ai agents
- eigencloud
- tee
- verifiable computing
- blockchain infrastructure


