AI-agents kunnen alles, maar moet je ze alles laten doen?

Novictus  ·  Mei 2026  ·  Automation & AI Governance

In 9 seconden. Zo lang duurde het voordat een AI-agent de volledige productiedatabase van een softwarebedrijf had gewist — inclusief alle backups. De agent handelde eigenhandig, zonder toestemming, op basis van zijn eigen redenering. Daarna produceerde hij een schriftelijke bekentenis: ‘I violated every principle I was given.’ Dit is geen sciencefiction. Het is een wake-up call voor elke organisatie die AI-agents serieus neemt. Want agents kunnen tegenwoordig bijna alles. De vraag is: moet je ze alles láten doen?

⚠ Incident van de week

Op 24 april 2026 verwijderde Cursor — een AI-coderingsagent aangedreven door Claude Opus 4.6 — de volledige productiedatabase van PocketOS (software voor autoverhuurbedrijven) in één API-call. De agent stuitte op een credential-mismatch en besloot zelfstandig het probleem op te lossen door een database-volume te verwijderen. Er was geen bevestigingsstap. Er was geen omgevingsscheiding. Er was geen governance.

“This isn’t a story about one bad agent or one bad API. It’s about an entire industry building AI-agent integrations into production infrastructure faster than it’s building the safety architecture to make those integrations safe.” — Jer Crane, oprichter PocketOS

Bron: The Register — Cursor-Opus agent snuffs out startup’s production database (27 april 2026)

Wat is een AI-agent en waarom is dit anders dan ‘gewone’ automatisering?

Een AI-agent is niet zomaar een chatbot of een script dat stap voor stap een vaste taak uitvoert. Een agent neemt zelf beslissingen over welke stappen nodig zijn, selecteert de juiste tools en handelt autonoom — ook als de situatie afwijkt van wat verwacht werd.

Dat maakt agents krachtig: ze kunnen onderbrekingen en uitzonderingen verwerken zonder dat een mens ertussen moet komen. Maar precies dáárom is het gevaarlijk om ze zonder kaders te laten werken.

Traditionele automatisering is deterministisch: als input X binnenkomt, voert het systeem stap Y uit. Een agent is probabilistisch: die ‘bedenkt’ zelf wat de beste aanpak is. En soms is die redenering — hoe overtuigend ook op papier — gewoon fout.

De drie meest voorkomende valkuilen bij agent-inzet

🔑

Te brede permissies

De agent krijgt toegang tot meer dan nodig. Een schrijf-token als lees-token meegeven scheelt ontwikkeltijd, maar vergroot het risico enorm.

Geen bevestigingsstap

Destructieve of onomkeerbare acties — verwijderen, overschrijven, publiceren — worden uitgevoerd zonder menselijke goedkeuring.

🔀

Geen omgevingsscheiding

De agent kan staging en productie niet onderscheiden, tenzij dat technisch is afgedwongen — niet alleen vermeld in een prompt.

Governance bij AI-agents: wat betekent dat concreet?

Governance klinkt zwaar, maar het is in essentie de vraag: wie is er verantwoordelijk, wat mag de agent doen — en hoe zorg je dat die grenzen óók worden gerespecteerd als de agent onder druk zelf moet redeneren?

  • 🎯

    Least-privilege principe

    Geef de agent alleen toegang tot wat hij voor de specifieke taak nodig heeft. Geen algemene admin-tokens, geen brede API-sleutels met volledige scope.

  • Human-in-the-loop voor onomkeerbare acties

    Bouw een verplichte bevestigingsstap in voor alles wat niet teruggedraaid kan worden: verwijderen, overschrijven, e-mailen, publiceren.

  • 🧪

    Sandbox-first

    Laat de agent altijd eerst in een testomgeving werken. Maak de overgang naar productie een bewuste, goedgekeurde stap — niet iets dat de agent zelf kan initiëren.

  • 📋

    Logging en audittrail

    Zorg dat elke actie van de agent gelogd wordt, inclusief de redenering. Zo kun je niet alleen herstellen, maar ook begrijpen wat er mis ging.

  • 🏗

    Technisch afgedwongen, niet alleen geprompt

    Een instructie in de systeemprompt is geen governance. Veiligheidsregels moeten architectureel zijn geborgd — niet afhankelijk van of de agent ze ‘begrijpt’.

Waarom dit relevant is voor jouw organisatie

Misschien denk je: wij zijn geen softwarebedrijf, dit speelt bij ons niet. Maar de realiteit is dat agents steeds vaker in alle soorten organisaties worden ingezet — ook in de maakindustrie en logistiek.

Denk aan agents die orders verwerken, voorraden bijwerken, klantcommunicatie afhandelen of data tussen systemen synchroniseren. De risico’s zijn overeenkomstig: een agent die een verkooporder verwijdert omdat hij denkt dat het een duplicaat is. Een agent die een factuur betaalt op basis van een PO die hij niet had mogen benaderen. Een agent die een leverancier mailt met onjuiste bevestigingen omdat hij de context van een annulering niet begreep.

De vraag is dus niet óf je AI-agents wil inzetten. Dat is vrijwel zeker zinvol. De vraag is: heb je de randvoorwaarden geborgd zodat agents krachtig werken binnen veilige grenzen?

Onze kijk vanuit Novictus

Wij bouwen agents die krachtig én beheersbaar zijn

Wij zien bij onze klanten dat het enthousiasme voor AI-agents groot is — en terecht. Agents zijn een logische volgende stap na traditionele automatisering. Waar een Workato-workflow een vaste sequentie uitvoert, kan een agent flexibel inspringen bij afwijkingen en uitzonderingen.

Maar wij zien ook dat governance bij agent-implementaties structureel onderbelicht is. Onze aanpak is gebaseerd op drie principes:

  • 1

    Design for failure: ga er bij ontwerp altijd van uit dat de agent een foute beslissing kan nemen. Bouw het systeem zo dat die fout beheersbaar is, niet catastrofaal.

  • 2

    Governance als onderdeel van de architectuur: permissies, goedkeuringsstappen en audit-logging zijn geen afterthought, maar worden in de eerste sprint meegenomen.

  • 3

    Iteratief vertrouwen opbouwen: begin met de agent in een gecontroleerde scope, meet de uitkomsten, en vergroot het mandaat stap voor stap naarmate het vertrouwen is opgebouwd.

Veelgestelde vragen

Zijn AI-agents per definitie gevaarlijk in productieomgevingen? +
Nee. Agents zijn krachtige tools die in productie goed kunnen functioneren — mits ze zijn ingericht met de juiste permissies, goedkeuringsstappen en monitoring. Het risico zit niet in de technologie zelf, maar in de afwezigheid van governance.
Hoe voorkom ik dat een AI-agent onomkeerbare acties uitvoert? +
Door onomkeerbare acties technisch te beveiligen met een verplichte menselijke goedkeuringslaag. Dit is niet alleen een instructie aan de agent, maar een architecturele beslissing: de agent kan de actie pas uitvoeren ná expliciete goedkeuring via een apart kanaal.
Wat is het verschil tussen een AI-agent en een gewone automatisering in tools als Workato? +
Traditionele automatisering voert een vaste sequentie van stappen uit op basis van vaste regels. Een AI-agent redeneert over de situatie en beslist zelf welke stappen nodig zijn. Dat geeft meer flexibiliteit bij uitzonderingen, maar vereist ook striktere governance.
Hoe zorg ik dat een AI-agent alleen doet wat ik bedoel? +
Door het least-privilege principe te hanteren, heldere systeeminstructies te geven, testomgevingen strikt te scheiden van productie, en elke actie te loggen. Cruciaal: zorg dat veiligheidsregels technisch zijn afgedwongen in de architectuur, niet alleen beschreven in een prompt.
Hoe past agent-governance binnen ons bestaande automatiseringslandschap? +
Governance bij agents bouwt voort op de principes die je al kent uit traditionele automatisering: toegangsbeheer, foutafhandeling en monitoring. Het verschil is dat agents meer autonomie hebben, waardoor die principes strenger moeten worden toegepast en expliciet in de architectuur verankerd moeten zijn.

Marco Soesman - Technisch Directeur Novictus

Over de auteur

Marco Soesman

Technisch Directeur & Medeoprichter — Novictus B.V.

Marco Soesman is medeoprichter en Technisch Directeur van Novictus B.V., een gespecialiseerd advies- en implementatiebedrijf op het gebied van procesautomatisering en IT-integratie. Vanuit Zwolle begeleidt Novictus middelgrote organisaties in de maakindustrie en logistiek bij het ontwerpen en realiseren van schaalbare automatiseringsoplossingen. Marco heeft ruime ervaring met enterprise-integratieplatforms zoals Workato en Alumio, en adviseert organisaties over de inzet van AI-agents binnen bestaande IT-landschappen. Hij is de architect achter het Novictus Automation Maturity Model en het AUTOCORE-product. Daarnaast is hij host van de podcast AI en Automation voor Beslissers.

Download onze whitepaper

Lees over de 7 kansen voor low-code integration en hoe je deze kunt benutten. Benieuwd naar onze aanpak? Lees onze blogs en zie hoe bedrijven net als het jouwe profiteren van de oplossingen van Novictus.

Vragen? We helpen je graag. Neem contact met ons op!

Team Novictus B.V. IT-consultancy Zwolle