Novictus · Mei 2026 · Automation & AI Governance
⚠ Incident van de week
Op 24 april 2026 verwijderde Cursor — een AI-coderingsagent aangedreven door Claude Opus 4.6 — de volledige productiedatabase van PocketOS (software voor autoverhuurbedrijven) in één API-call. De agent stuitte op een credential-mismatch en besloot zelfstandig het probleem op te lossen door een database-volume te verwijderen. Er was geen bevestigingsstap. Er was geen omgevingsscheiding. Er was geen governance.
“This isn’t a story about one bad agent or one bad API. It’s about an entire industry building AI-agent integrations into production infrastructure faster than it’s building the safety architecture to make those integrations safe.” — Jer Crane, oprichter PocketOSBron: The Register — Cursor-Opus agent snuffs out startup’s production database (27 april 2026)
Wat is een AI-agent en waarom is dit anders dan ‘gewone’ automatisering?
Een AI-agent is niet zomaar een chatbot of een script dat stap voor stap een vaste taak uitvoert. Een agent neemt zelf beslissingen over welke stappen nodig zijn, selecteert de juiste tools en handelt autonoom — ook als de situatie afwijkt van wat verwacht werd.
Dat maakt agents krachtig: ze kunnen onderbrekingen en uitzonderingen verwerken zonder dat een mens ertussen moet komen. Maar precies dáárom is het gevaarlijk om ze zonder kaders te laten werken.
Traditionele automatisering is deterministisch: als input X binnenkomt, voert het systeem stap Y uit. Een agent is probabilistisch: die ‘bedenkt’ zelf wat de beste aanpak is. En soms is die redenering — hoe overtuigend ook op papier — gewoon fout.
De drie meest voorkomende valkuilen bij agent-inzet
Te brede permissies
De agent krijgt toegang tot meer dan nodig. Een schrijf-token als lees-token meegeven scheelt ontwikkeltijd, maar vergroot het risico enorm.
Geen bevestigingsstap
Destructieve of onomkeerbare acties — verwijderen, overschrijven, publiceren — worden uitgevoerd zonder menselijke goedkeuring.
Geen omgevingsscheiding
De agent kan staging en productie niet onderscheiden, tenzij dat technisch is afgedwongen — niet alleen vermeld in een prompt.
Governance bij AI-agents: wat betekent dat concreet?
Governance klinkt zwaar, maar het is in essentie de vraag: wie is er verantwoordelijk, wat mag de agent doen — en hoe zorg je dat die grenzen óók worden gerespecteerd als de agent onder druk zelf moet redeneren?
-
🎯
Least-privilege principe
Geef de agent alleen toegang tot wat hij voor de specifieke taak nodig heeft. Geen algemene admin-tokens, geen brede API-sleutels met volledige scope.
-
✋
Human-in-the-loop voor onomkeerbare acties
Bouw een verplichte bevestigingsstap in voor alles wat niet teruggedraaid kan worden: verwijderen, overschrijven, e-mailen, publiceren.
-
🧪
Sandbox-first
Laat de agent altijd eerst in een testomgeving werken. Maak de overgang naar productie een bewuste, goedgekeurde stap — niet iets dat de agent zelf kan initiëren.
-
📋
Logging en audittrail
Zorg dat elke actie van de agent gelogd wordt, inclusief de redenering. Zo kun je niet alleen herstellen, maar ook begrijpen wat er mis ging.
-
🏗
Technisch afgedwongen, niet alleen geprompt
Een instructie in de systeemprompt is geen governance. Veiligheidsregels moeten architectureel zijn geborgd — niet afhankelijk van of de agent ze ‘begrijpt’.
Waarom dit relevant is voor jouw organisatie
Misschien denk je: wij zijn geen softwarebedrijf, dit speelt bij ons niet. Maar de realiteit is dat agents steeds vaker in alle soorten organisaties worden ingezet — ook in de maakindustrie en logistiek.
Denk aan agents die orders verwerken, voorraden bijwerken, klantcommunicatie afhandelen of data tussen systemen synchroniseren. De risico’s zijn overeenkomstig: een agent die een verkooporder verwijdert omdat hij denkt dat het een duplicaat is. Een agent die een factuur betaalt op basis van een PO die hij niet had mogen benaderen. Een agent die een leverancier mailt met onjuiste bevestigingen omdat hij de context van een annulering niet begreep.
De vraag is dus niet óf je AI-agents wil inzetten. Dat is vrijwel zeker zinvol. De vraag is: heb je de randvoorwaarden geborgd zodat agents krachtig werken binnen veilige grenzen?
Onze kijk vanuit Novictus
Wij bouwen agents die krachtig én beheersbaar zijn
Wij zien bij onze klanten dat het enthousiasme voor AI-agents groot is — en terecht. Agents zijn een logische volgende stap na traditionele automatisering. Waar een Workato-workflow een vaste sequentie uitvoert, kan een agent flexibel inspringen bij afwijkingen en uitzonderingen.
Maar wij zien ook dat governance bij agent-implementaties structureel onderbelicht is. Onze aanpak is gebaseerd op drie principes:
-
1
Design for failure: ga er bij ontwerp altijd van uit dat de agent een foute beslissing kan nemen. Bouw het systeem zo dat die fout beheersbaar is, niet catastrofaal.
-
2
Governance als onderdeel van de architectuur: permissies, goedkeuringsstappen en audit-logging zijn geen afterthought, maar worden in de eerste sprint meegenomen.
-
3
Iteratief vertrouwen opbouwen: begin met de agent in een gecontroleerde scope, meet de uitkomsten, en vergroot het mandaat stap voor stap naarmate het vertrouwen is opgebouwd.
Veelgestelde vragen
Lees ook
Over de auteur
Marco Soesman
Technisch Directeur & Medeoprichter — Novictus B.V.
Marco Soesman is medeoprichter en Technisch Directeur van Novictus B.V., een gespecialiseerd advies- en implementatiebedrijf op het gebied van procesautomatisering en IT-integratie. Vanuit Zwolle begeleidt Novictus middelgrote organisaties in de maakindustrie en logistiek bij het ontwerpen en realiseren van schaalbare automatiseringsoplossingen. Marco heeft ruime ervaring met enterprise-integratieplatforms zoals Workato en Alumio, en adviseert organisaties over de inzet van AI-agents binnen bestaande IT-landschappen. Hij is de architect achter het Novictus Automation Maturity Model en het AUTOCORE-product. Daarnaast is hij host van de podcast AI en Automation voor Beslissers.



