Opleiding : De AI-verrijkte Pentester

Lokale modellen, AI-systeemaanvallen, autonome agenten

Praktijkcursus - 3d - 21u00 - Ref. HIA
Prijs : 2100 € V.B.

De AI-verrijkte Pentester

Lokale modellen, AI-systeemaanvallen, autonome agenten


Nieuwe opleiding

De traditionele pentest ondergaat ingrijpende veranderingen. Verdedigingen worden geautomatiseerd (EDR ML, SIEM AI, adaptieve WAF) en aanvallen ook. Deze cursus is ontworpen om AI-verbeterde pentesters op te leiden die in staat zijn om ongecensureerde lokale modellen te gebruiken om elke fase van de pentest te versnellen, systemen aan te vallen die AI bevatten (chatbots, RAG's, autonome agents) en hun eigen pentest agents te bouwen.Het hele trainingsprogramma is gebaseerd op lokale modellen (Ollama, Dolphin-3): zero cloud afhankelijkheid, mission confidentiality gegarandeerd, air-gappable. Het hele trainingsprogramma is gebaseerd op lokale modellen (Ollama, Dolphin-3): geen afhankelijkheid van de cloud, missievertrouwelijkheid gegarandeerd, air-gappable. Directe API, geen magisch raamwerk.


INTER
INTRA
OP MAAT

Ter plaatse of via klasverband op afstand
Beschikbaar in het Engels op aanvraag

Ref. HIA
  3d - 21u00
2100 € V.B.




De traditionele pentest ondergaat ingrijpende veranderingen. Verdedigingen worden geautomatiseerd (EDR ML, SIEM AI, adaptieve WAF) en aanvallen ook. Deze cursus is ontworpen om AI-verbeterde pentesters op te leiden die in staat zijn om ongecensureerde lokale modellen te gebruiken om elke fase van de pentest te versnellen, systemen aan te vallen die AI bevatten (chatbots, RAG's, autonome agents) en hun eigen pentest agents te bouwen.Het hele trainingsprogramma is gebaseerd op lokale modellen (Ollama, Dolphin-3): zero cloud afhankelijkheid, mission confidentiality gegarandeerd, air-gappable. Het hele trainingsprogramma is gebaseerd op lokale modellen (Ollama, Dolphin-3): geen afhankelijkheid van de cloud, missievertrouwelijkheid gegarandeerd, air-gappable. Directe API, geen magisch raamwerk.


Pedagogische doelstellingen
Aan het einde van de training is de deelnemer in staat om:
Installeer en configureer een lokale en soevereine offensieve AI-omgeving (Ollama, ongecensureerde modellen)
AI gebruiken om herkenning, payloadgeneratie en Active Directory-analyse te versnellen
Kwetsbaarheden identificeren en misbruiken in systemen met LLM's (OWASP Top 10 LLM's 2025)
Aanvallen op RAG-architecturen (extractie, vergiftiging, indirecte injectie)
Een gecontroleerde autonome pentest-agent bouwen met een ReAct-lus
AI-gegenereerde code ("vibe coding") controleren en typische kwetsbaarheden identificeren

Doelgroep
Pentesters, offensieve beveiligingsconsultants, SOC/CERT-analisten, beveiligingsauditors, technische CISO's die offensieve en defensieve AI willen begrijpen.

Voorafgaande vereisten
Ervaring met penetratietesten of offensieve beveiliging (OSCP-niveau of gelijkwaardig aanbevolen). Basiskennis van Python (bestandsmanipulatie, REST API, subproces), Linux, Docker en klassieke pentest tools (nmap, Burp, BloodHound). Voorkennis van AI of offline machine learning is niet vereist.

Opleidingsprogramma

1
Waarom pentesting zoals we het kennen dood is

  • Begrijp de impact van moderne AI-verdedigingen (ML EDR, NDR, AI SIEM, adaptieve WAF) op traditionele technieken.
  • Analyseer de asymmetrie tussen aanvaller en verdediger en de behoefte aan AI-versterking.
  • Maak onderscheid tussen gecensureerde (ChatGPT) en ongecensureerde (Dolphin-3) modellen voor aanstootgevend gebruik.
  • De uitdagingen van technische soevereiniteit begrijpen: vertrouwelijkheid van missies, luchtspleet, nul-telemetrie.
Praktisch werk
Dezelfde prompt verzonden naar ChatGPT (gecensureerd) en lokale Dolphin-3 (ongecensureerd). Vergelijking van resultaten voor het genereren van offensieve payloads.

2
Fundamentele beperkingen van LLM

  • Inzicht in de architectuur van LLM zoals toegepast op pentesting: tokens, contextvenster, temperatuur, systeemprompt.
  • Integreer de limiet van Shannon: LLM comprimeert met verlies, het creëert geen informatie.
  • Identificeer hallucinaties en hun impact (CVE's uitgevonden, volgorde bij benadering).
  • Inzicht in blinde vlekken: kwetsbaarheden in bedrijfslogica, creatieve ketens, omgevingscontext, tegenstrijdig redeneren.

3
Installatie van het offensieve AI-laboratorium

  • Installeer Ollama en de 4 modellen (dolphin3, qwen2.5-coder, nomic-embed-text, llama3.2).
  • Een aangepast pentestermodel maken met Modelfile en offensieve systeemprompt.
  • Implementeer Open WebUI voor de grafische interface.
  • Valideer de omgeving en test in luchtspleetmodus.
Praktisch werk
Volledige installatie van de offensieve AI-omgeving. Creatie van het aangepaste model. Validatie: genereren van payload en identificatie van ten minste één hallucinatie.

4
AI-herkenning

  • Inzicht in wat LLM oplevert aan herkenning: synthese, correlatie, prioritering.
  • Bepaal de grenzen: de LLM heeft geen toegang tot het netwerk en controleert niet op kwetsbaarheden.
  • Architectuur van een herkenningsagent: subproces (nmap, curl) + LLM-analyse.
  • Gebruik de juiste temperatuur: 0,3 voor analyse, 0,7 voor nuttige lading.
Praktisch werk
Python mini-agent voor verkenning. nmap-scan van een Docker-doel, LLM-analyse van de resultaten, automatisch genereren van een geprioriteerd aanvalsplan.

5
Payload genereren en WAF omzeilen

  • Vergelijk statische payloads (SecLists) vs generatieve payloads (LLM).
  • Implementeer een iteratieve lus: genereren ? testen ? feedback ? aanpassen.
  • Gebruik feedback van WAF-reacties (403s, geblokkeerde patronen) om LLM te sturen.
  • Evalueer de syntactische kwaliteit van de gegenereerde payloads en het succespercentage.
Praktisch werk
Adaptieve fuzzing met LLM. Geautomatiseerde SQLi/XSS payload generatie loop tegen een doelwit met WAF. Analyse omzeilingssnelheid vs. handmatige aanpak.

6
AI en Active Directory

  • Inzicht in het probleem van grootschalige AD-analyse (10.000+ objecten).
  • LLM feed strategie: Python pre-filtering van SharpHound/BloodHound gegevens.
  • Automatische extractie: domein-admins, Kerberoastable, AS-REP Roastable, gevaarlijke ACL's, delegatie.
  • Genereren van geprioriteerde aanvalspaden met impacket/crackmapexec commando's.
Praktisch werk
Analyse van BloodHound-gegevens gesimuleerd door LLM. Python pre-filtering, identificatie van aanvalspaden, vergelijking met BloodHound visuele analyse.

7
AI-ondersteunde social engineering

  • AI begrijpen als een krachtvermeerderaar voor social engineering.
  • Genereer gepersonaliseerde spearphishing-voorwendsels op schaal.
  • Identificeer de veroudering van traditionele anti-phishingtrainingen in het licht van AI.
  • Pas een strikt ethisch kader toe: alleen red team, geen deepfakes.
Praktisch werk
Gesimuleerd rood team tegen MedTech Solutions (scenario verstrekt). Genereren van gerichte voorwendsels voor 3 profielen, Office 365 phishingpagina, oefening in gekoppelde detectie.

8
OWASP Top 10 LLM & Agentic AI

  • Beheers de OWASP Top 10 risico's voor LLM-toepassingen (2025).
  • Inzicht in de specifieke risico's OWASP Top 10 voor Agentic AI (december 2025).
  • Prompt Injection (LLM01): directe en indirecte injectie, extractietechnieken.
  • Systeem Prompt Leakage (LLM07): rollenspel, codering, multi-turn, crescendo, side-channel.
Praktisch werk
Aanval op een kwetsbare chatbot met 4 niveaus van toenemende bescherming. Extraheren van vlaggen met steeds geraffineerdere promptinjectie.

9
Aanval op RAG-systemen

  • Inzicht in de RAG-architectuur: inbedding, vectorbasis, zoeken naar overeenkomsten.
  • De 4 aanvalsgebieden identificeren: poisoning, extractie, indirecte injectie, zoekmanipulatie.
  • Begrijpen waarom RAG-vergiftiging bijzonder gevaarlijk is (aanhoudende invloed).
  • Weerbaarheid implementeren: toegangscontrole, opschonen van documenten, detectie van anomalieën.
Praktisch werk
Uitbuiting van een kwetsbare Docker RAG. Extractie van vertrouwelijk document, vergiftiging van vector database, indirecte injectie via HTML commentaar.

10
Anatomie van een AI-agent en zijn aanvalsoppervlak

  • Inzicht in de architectuur van de AI-agent: LLM Core + Tools + Geheugen + Planner.
  • Onderscheid maken tussen chatbot (reageert) en agent (handelt) en de gevolgen voor de beveiliging.
  • Identificeer Agentic aanvalsoppervlakken: Tool Poisoning, Memory Manipulation, Excessive Agency, Goal Manipulation.
  • Inzicht in de impact van een prompt injection op een agent (RCE, exfiltratie, phishing).
Praktisch werk
Exploitatie van de financiële agent FinBot. Privilege-escalatie, misbruik van SQL-tools, database-exfiltratie, indirecte injectie via e-mail.

11
Een autonome pentest-agent onder toezicht bouwen

  • Inzicht in het ReAct-patroon (Reasoning + Acting) voor pentest agents.
  • Rechtvaardig de keuze voor een directe API versus frameworks (LangChain, CrewAI): controle, controleerbaarheid, stabiliteit.
  • Verplicht human-in-the-loop en zet gevaarlijke commando's op een zwarte lijst.
  • Genereer een gestructureerde samenvatting voor het pentest-rapport.
Praktisch werk
Bouwen en gebruiken van een supervised pentest agent. ReAct loop tegen een Docker target, menselijke validatie van elke actie, automatische eindsamenvatting.

12
Vibrerende codering vanuit veiligheidsperspectief

  • Inzicht in de beveiligingsrisico's van AI-gegenereerde code (kwetsbare patronen in trainingsgegevens).
  • Identificeer de 8 typische kwetsbaarheden: SQLi, XSS, IDOR, ongefilterde upload, hardcoded secrets, path traversal, wachtwoorden in platte tekst, gebrek aan CSRF.
  • Integreer "vibe coded" code auditing in een pentest service.
  • Vergelijk de menselijke audit met de LLM-audit van dezelfde code.
Praktisch werk
Pentest van een applicatie voor notitiebeheer, volledig gegenereerd door AI. 8 opzettelijke kwetsbaarheden, 100 punten. Bonus: audit van dezelfde code door de LLM en vergelijking.

13
AI rood team CTF

  • Uitdaging 1 - De chatbot (30 punten): het extraheren van referenties via promptinjectie.
  • Uitdaging 2 - De vergiftigde basis (40 punten): extractie van vertrouwelijk document + vergiftiging RAG.
  • Uitdaging 3 - De gemanipuleerde agent (50 punten): privilege-escalatie, misbruik van tools, DB exfiltratie.
  • Uitdaging 4 - De volledige keten (60 punten): klassiek web + promptinjectie + agent = RCE.
  • Bonusuitdaging - Het schild (20 punten): omgekeerde uitdaging, een chatbot beveiligen tegen geautomatiseerde aanvallen.
Praktisch werk
CTF in teams van 2-3 personen. Complete Docker-infrastructuur met real-time scorebord. 200 punten in totaal. Alle tools en technieken van dag 1 en 2 worden gebruikt.

14
Debriefing en vooruitblik

  • Een "AI Red Team"-service positioneren (verkooppraatje, deliverables, OWASP-richtlijnen) De AI-audit integreren in een standaard pentest-methodologie (scoping, verkenning, exploitatie, rapport).
  • Inzicht in de toekomst: MCP Security, multimodale agenten, deepfakes, EU AI Act.
  • Middelen voor monitoring en training identificeren (Gandalf, Dreadnode Crucible, PortSwigger LLM Labs, AI Goat).