Tijdens dit Vision Dinner zal Bernhardt Fourie, momenteel Cybersecurity Capability Lead bij ASML en binnenkort AI Security Architect bij Nationale Nederlanden, ingaan op hoe Large Language Models (LLM’s) en interne AI-chatbots zoals Copilot en ChatGPT kwetsbaar zijn voor manipulatie via prompt injection en data poisoning. Hij deelt praktische maatregelen die organisaties kunnen nemen om vertrouwen actief te beschermen en ervoor te zorgen dat AI een gecontroleerd en transparant onderdeel wordt van security en governance, in plaats van een blinde vlek.
Cyber Security professionals
CPE Punten | 2 punten
17:30 | Start programma (inclusief presentatie, discussie en 3-gangen diner)
20:30 | Einde formeel programma, gelegenheid voor informeel netwerken
Voertaal: Engels
Kasteel Montfoort, Montfoort
Cybersecurity Capability Lead
Bernhardt Fourie is een cybersecurityprofessional en onderzoeker met meer dan zeven jaar ervaring. Momenteel is hij werkzaam als Cybersecurity Capability Lead bij ASML en vanaf mei maakt hij de overstap naar de rol van AI Security Architect bij Nationale Nederlanden. Hij is gespecialiseerd in incident response en proactieve securityarchitectuur voor zowel IT- als OT-omgevingen. Bernhardt heeft securitygerichte functies bekleed bij organisaties zoals Uber, ABN AMRO Bank, de Organisatie voor het Verbod op Chemische Wapens en het Internationaal Strafhof. Daarnaast behaalde hij een BA in International Relations aan de University of California en een MA in International Security aan de Rijksuniversiteit Groningen, waar hij afstudeerde met een Honours in Leadership.
Naarmate AI steeds meer invloed krijgt op bedrijfsbeslissingen, verandert ook het dreigingslandschap. Aanvallers breken systemen niet langer, maar proberen ze te beïnvloeden. Net als bij menselijke social engineering ligt het grootste risico in ogenschijnlijk legitiem gedrag dat ongemerkt leidt tot verkeerde beslissingen zonder waarschuwingen of incidenten, maar met aanzienlijke impact op de organisatie.
Tijdens dit Vision Dinner zal Bernhardt Fourie, momenteel Cybersecurity Capability Lead bij ASML en binnenkort AI Security Architect bij Nationale Nederlanden, ingaan op hoe Large Language Models (LLM’s) en interne AI-chatbots zoals Copilot en ChatGPT kwetsbaar zijn voor manipulatie via prompt injection en data poisoning. Hij deelt praktische maatregelen die organisaties kunnen nemen om vertrouwen actief te beschermen en ervoor te zorgen dat AI een gecontroleerd en transparant onderdeel wordt van security en governance, in plaats van een blinde vlek.
De sessie legt de link tussen concrete AI-dreigingen en schaalbare oplossingen, en vertaalt deze naar governance, assurance en meetbare waarde voor bestuur en security leadership. Daarnaast biedt de sessie waardevolle inzichten in de strategische beoordeling van AI-gedrag, kritische succesfactoren en resterende uitdagingen. De presentatie vormt het startpunt voor een gesprek met de spreker en mede cybersecurity-leiders. Je bent van harte uitgenodigd om deel te nemen!
"*" geeft vereiste velden aan