EU AI Act voor scholen: wat moet je nu al regelen?

december 17, 2025

EU AI Act voor scholen in gewone-mensentaal: wat moet je nu al regelen?

AI in het onderwijs is niet meer “iets voor later”. Leerlingen gebruiken het, docenten experimenteren ermee, en leveranciers bieden steeds meer AI-functies aan in leeromgevingen, toetssoftware en administratie. Tegelijk komt er Europese wetgeving aan: de EU AI Act. Dat klinkt groot en ingewikkeld, maar voor scholen komt het neer op één vraag:

Hoe zorgen we dat we AI veilig, verantwoord en uitlegbaar gebruiken — zonder dat het de werkdruk verhoogt?

In dit artikel leggen we uit wat je als school nu al slim kunt regelen, in duidelijke taal en met praktische stappen.

1) Wat is de EU AI Act (heel kort)?

De EU AI Act is een Europese wet die regels maakt voor het ontwikkelen en gebruiken van AI. Niet alle AI is even risicovol. Daarom werkt de wet met risicoklassen: hoe groter de impact op mensen, hoe strenger de regels.

Voor scholen is vooral belangrijk: sommige AI-toepassingen in en rond onderwijs kunnen als hoog-risico worden gezien, bijvoorbeeld als AI wordt ingezet voor beslissingen die grote gevolgen hebben voor leerlingen (denk aan selectie, plaatsing, beoordeling, doorstroom of het “inschatten” van capaciteiten).

2) Waarom moeten scholen hier nu al iets mee?

Ook al zijn niet alle onderdelen “per direct” afdwingbaar, is dit wél het moment om je basis op orde te krijgen. Waarom?

Omdat AI al gebruikt wordt (door leerlingen én medewerkers), en je als school verantwoordelijk bent voor beleid, veiligheid, en duidelijke afspraken met leveranciers.

Zie het als brandveiligheid: je wacht niet tot de inspectie komt om een nooduitgang te regelen.

3) Welke AI in scholen is (mogelijk) hoog-risico?

Niet alles is hoog-risico. Een tool die helpt met lesideeën of taalfeedback is iets anders dan een systeem dat “advies” geeft over leerlingniveau of toelating. In onderwijscontext kun je extra alert zijn bij AI die:

• Impact heeft op kansen (plaatsing, selectie, doorstroom, profielkeuze, examengerichte beslissingen)

• Beoordelingen beïnvloedt (automatische beoordeling, proctoring, detectie van fraude of “gedrag”)

• Profielen maakt (risicoscores, voorspellingen, labels zoals “kansarm”, “hoog potentieel”, “uitvalrisico”)

• Ingrijpt in ondersteuning (doorverwijzingen, zorginschattingen of interventie-advies)

Gebruik je AI hiervoor, of wil je dat gaan doen, dan is het verstandig om de toepassing standaard als “extra kritisch” te behandelen.

4) Wat moet je nu al regelen? De 10 praktische basisstappen

Stap 1: Maak een AI-overzicht (inventarisatie)

Begin simpel: welke AI-tools worden er gebruikt?

Denk aan:

• Lesvoorbereiding (chatbots, content generators)

• Toetsing (nakijktools, proctoring, analyse)

• Leerlingenbegeleiding (studieadvies, dashboards)

• Administratie (samenvatten van mails/verslagen, planning, HR)

• Leveranciers (AI-features in bestaande systemen)

Tip: maak een simpele lijst met tool, doel, wie gebruikt het, welke data, en wat is de impact.

Stap 2: Bepaal per toepassing het risico (laag/middel/hoog)

Je hoeft geen jurist te zijn. Stel per AI-toepassing drie vragen:

1) Gaat dit over leerlingen en hun kansen?
2) Worden er persoonsgegevens gebruikt?
3) Vertrouwen we op de uitkomst, of is het alleen “advies”?

Als het over kansen gaat én je leunt op de output, behandel het dan als hoog risico en zorg voor extra waarborgen.

Stap 3: Zet “menselijke controle” expliciet in je proces

Een kernprincipe: AI beslist niet zelfstandig over leerlingen. Mensen blijven verantwoordelijk.

Leg vast:

• Wie mag AI-output gebruiken?

• Waarvoor wel en niet?

• Hoe controleren we de uitkomst?

• Wat doen we bij twijfel of fouten?

Maak dit concreet: “AI kan suggesties doen, maar de docent/mentor bepaalt en motiveert altijd zelf.”

Stap 4: Maak een korte, duidelijke AI-gedragscode voor medewerkers

Niet een document van 30 pagina’s, maar een praktische one-pager. Bijvoorbeeld:

• Geen leerlinggegevens in publieke AI-tools (tenzij goedgekeurd en contractueel geregeld)

• Gebruik AI als hulpmiddel, niet als autoriteit

• Vermeld (waar relevant) dat AI is gebruikt bij communicatie/lesmateriaal

• Check op fouten, bias en toon

• Bij twijfel: stop en overleg

Stap 5: Regel leveranciersafspraken (contracten en transparantie)

Veel AI zit straks “verstopt” in bestaande systemen. Vraag leveranciers expliciet:

• Welke AI-functies zitten erin?

• Waarvoor is het model bedoeld en waarvoor niet?

• Welke data gaat erin, en waar wordt die verwerkt?

• Wordt onze data gebruikt om modellen te trainen?

• Welke logging, uitleg en controle is er?

• Welke beveiligingsmaatregelen zijn er?

Laat leveranciers niet wegkomen met “het is AI, vertrouw ons maar”. Transparantie hoort erbij.

Stap 6: Koppel dit aan privacy (AVG) zonder het te verwarren

De EU AI Act en de AVG zijn verschillend, maar in de praktijk raken ze elkaar.

Als AI met persoonsgegevens werkt, check je in elk geval:

• Welke gegevens zijn noodzakelijk?

• Is er een grondslag en doelbinding?

• Hoe lang bewaren we data?

• Kunnen we dataminimalisatie toepassen?

• Is een DPIA nodig?

Een handige vuistregel: als je het niet in een e-mail naar een onbekende zou sturen, zet het dan ook niet in een willekeurige AI-tool.

Stap 7: Regel rollen en eigenaarschap

AI “erbij” doen werkt niet. Wijs minimaal aan:

• Een AI-aanspreekpunt (beleid, keuzes, afstemming)

• Iemand van ICT/security (toegang, accounts, technische eisen)

• Privacy/FG (waar aanwezig) voor AVG/DPIA-lijn

• Onderwijskundige borging (didactiek en toetsing)

Dit hoeft geen nieuw team te zijn, maar wel duidelijke verantwoordelijkheid.

Stap 8: Zorg voor training in “AI-geletterdheid”

Dit is vaak de snelste winst. Niet iedereen hoeft prompt-expert te worden, maar iedereen moet snappen:

• AI kan overtuigend fout zijn (hallucinaties)

• AI kan bias versterken

• Wat wel/niet mag met data

• Hoe je output controleert

• Hoe je leerlingen begeleidt in verantwoord gebruik

Maak het praktisch met voorbeelden uit je eigen schoolcontext: toetsen, oudercommunicatie, zorgoverleggen, PTA’s, etc.

Stap 9: Richt een eenvoudige meldroute in voor incidenten

Wat als iemand per ongeluk leerlinggegevens in een tool zet? Of als een AI-systeem rare adviezen geeft?

Zorg voor één duidelijke route:

• Waar meld je het?

• Wat is de eerste actie? (stop gebruik, documenteer, informeer)

• Wie beoordeelt de impact?

Een meldroute verlaagt drempels en voorkomt dat issues “onder de radar” blijven.

Stap 10: Leg vast wat je wél en niet automatiseert

AI is geweldig voor tijdwinst, maar niet alles wil je automatiseren. Spreek af:

Wél: lesideeën, taalhulp, samenvattingen, conceptteksten, differentiatie-ideeën, rubric-voorstellen (met controle).

Niet (zonder zware waarborgen): beslissingen over plaatsing, doorstroom, beoordelingen, zorglabels, of risicoscores die leerlingen kunnen schaden.

Dit voorkomt dat “handige tools” langzaam doorschuiven naar “automatische beslissingen”.

5) Een simpele checklist die je morgen kunt gebruiken

Loop elke AI-tool langs en vink af:

• Doel is duidelijk

• Data is minimaal en passend

• Menselijke controle is geregeld

• Leverancier is transparant

• Beveiliging en toegang zijn op orde

• Team weet wat wel/niet mag

• Incidentroute bestaat

• Evaluatiemoment is gepland (bijv. elk kwartaal)

6) Veelgemaakte valkuilen (en hoe je ze voorkomt)

Valkuil 1: “We wachten tot het duidelijk is.”
Dan ontstaat er schaduwgebruik: iedereen doet maar wat. Start liever klein met heldere regels.

Valkuil 2: “We verbieden alles.”
Dat werkt vaak averechts. Beter: veilige tools + duidelijke grenzen + training.

Valkuil 3: “De tool is betrouwbaar, want hij klinkt slim.”
AI-output moet je behandelen als een concept: altijd controleren, zeker bij leerlingen en toetsing.

Valkuil 4: “AI is een ICT-ding.”
Het is ook didactiek, toetsbeleid, privacy, zorg en communicatie. Maak het gezamenlijk.

7) Conclusie: dit is vooral goed bestuur (met AI erbij)

De EU AI Act klinkt als “extra regels”, maar in de praktijk helpt het scholen om AI netjes te organiseren: transparant, veilig en met menselijke verantwoordelijkheid.

Als je nu begint met inventariseren, risico’s inschatten, afspraken maken en mensen trainen, ben je straks niet alleen compliant — je voorkomt vooral gedoe, incidenten en onbedoelde schade.

En je maakt AI juist bruikbaar voor waar het echt waarde toevoegt: werkdruk omlaag, kwaliteit omhoog, en leerlingen begeleiden in kritisch en bewust gebruik.