Hoe gaan wij ethische richtlijnen in onze AI-tool verwerken?
Binnenkort publiceren wij de eerste versie van onze AI-tool voor het onderwijs (AIvoorOnderwijs.com), met deze AI-tool kunnen docenten, onderwijsmedewerkers en uiteindelijk ook leerlingen gebruik maken van AI met verschillende toepassingen in het onderwijs.
Wij hebben voor de AI-tool grootste plannen en willen deze AI-tool graag aanbieden aan verschillende scholen zodat we AI op een veiligere en toegankelijkere manier willen aanbieden.
Maar nu is een vraag die vaak gesteld wordt: Hoe gaan jullie de AI-tool dan veiliger en toegankelijker maken voor het onderwijs? In dit artikel willen we op die vraag graag antwoord geven.
Welke ethische richtlijnen?
Allereerst is het belangrijk om te snappen welke ethische richtlijnen wij dan willen toepassen om de AI-tool veiliger en toegankelijker te maken. Deze richtlijnen hebben wij niet zelf verzonnen maar zijn gemaakt en gepubliceerd door de adviesgroep van de Europese Unie. De Europese Unie heeft namelijk een grote adviesgroep van 4000+ leden die de EU adviseren over kunstmatige intelligentie.
Deze groep heeft verschillende publicaties uitgebracht en een van de publicaties zijn 7 richtlijnen die gebruikt kunnen worden om betrouwbare AI in te zetten. De 7 richtlijnen zijn:
- Menselijke controle en toezicht
- Transparantie
- Diversiteit, non-discriminatie en rechtvaardigheid
- Privacy en gegevensbescherming
- Maatschappelijk en ecologisch welzijn
- Verantwoording
- Technische weerstand en veiligheid
Wij nemen deze zeven richtlijnen ter harte en integreren ze in onze AI-tool. Hieronder leggen we uit wat deze richtlijnen inhouden en geven we per richtlijn uitleg over hoe we dit in onze tool willen verwerken. Veel AI-tools bieden namelijk veel vrijheid maar wij willen juist met onze AI-tool deze richtlijnen in het AI proces inbrengen waarmee we dus een veiligere tool kunnen bieden.
Hoe gaan we deze richtlijnen toepassen in onze AI-tool?
1. Menselijke controle en toezicht 🧑🏫
Misschien wel de belangrijkste richtlijn, dat er altijd een controle is door een professional als AI wordt toegepast. Dit willen wij in de AI-tool verwerken door deze richtlijn op verschillende plekken toe te passen.
Wij willen namelijk implementeren dat docenten bijvoorbeeld verplicht worden om gegenereerde antwoorden na te kijken en zo nodig aanpassingen kunnen maken. Een bekent voorbeeld is dat een AI bijvoorbeeld feedback geeft aan de ingeleverde opdrachten van leerlingen. Dit kan heel handig zijn voor een docent maar ook riskant omdat het altijd feedback van een AI zal zijn. Je weet bijvoorbeeld van tevoren niet welke feedback de AI zal geven en hoe dit terecht kan komen bij een leerling.
Wij willen bij deze toepassing dus implementeren dat docenten altijd de antwoorden moeten controleren voordat de feedback wordt gegeven aan leerlingen. Ook krijgen docenten daar de mogelijkheid om de feedback aan te passen of zo nodig om de hele feedback te verwijderen. Dit willen we dus met een goede gebruikerservaring een beetje forceren in de app waarmee we dus docenten altijd de handvaten bieden om menselijke controle toe te passen.
2. Transparantie 🔍
Een andere belangrijke richtlijn is transparantie. Dit betekent dat gebruikers altijd moeten weten hoe en waarom de AI bepaalde keuzes maakt. Transparantie is essentieel om vertrouwen in de AI-tool te vergroten en om gebruikers bewust te maken van de werking van de AI.
Wij willen deze richtlijn op meerdere manieren implementeren in onze AI-tool. Een concreet voorbeeld is dat we docenten criteria laten geven voordat ze iets kunnen genereren met AI. Om weer terug te komen op het feedback voorbeeld. Hoe weet je waar AI de opdracht feedback geeft. Kijk de AI bijvoorbeeld alleen naar grammatica of ook naar andere punten? Als je dit van tevoren aangeeft kan dit veel helpen met transparantie. Dit zorgt ervoor dat docenten van tevoren meer inzicht hebben in het proces en kunnen inzien of correcte feedback wordt gegeven.
Daarnaast willen we een modeluitleg integreren in de tool. Dit houdt in dat we gebruikers inzicht geven in welke data en AI modellen worden gebruik. Hierdoor weten eindgebruikers meer van waar de AI zijn kennis vandaan haalt en kunnen ze beter beoordelen of de gegenereerde antwoorden betrouwbaar zijn.
Tot slot willen we duidelijke gebruikersrichtlijnen toevoegen aan de AI-tool. Dit zijn handleidingen en video’s die gebruikers stap voor stap uitleggen hoe ze de tool effectief en verantwoord kunnen gebruiken. Door deze richtlijnen te volgen, kunnen docenten er zeker van zijn dat ze de AI op een veilige en transparante manier inzetten in het onderwijs.
3. Diversiteit, non-discriminatie en rechtvaardigheid ⚖️
Ook een van de belangrijkste uitdagingen bij het gebruik van AI is het voorkomen van vooroordelen in de gegenereerde antwoorden. AI-modellen worden getraind op basis van bestaande datasets, en als deze data bevooroordeeld is, kan de AI ook bevooroordeelde resultaten geven. Het is daarom essentieel dat onze AI-tool diversiteit, non-discriminatie en rechtvaardigheid waarborgt.
Om deze richtlijn in onze AI-tool in te bouwen willen we een controlemechanisme inbouwen dat automatisch mogelijke biases in gegenereerde teksten signaleert. Wanneer de AI bijvoorbeeld stereotyperende opmerkingen maakt, wordt de docent hierop gewezen en kan de tekst aangepast worden voordat deze gedeeld wordt met leerlingen.
Tot slot willen we datasets die gebruikt worden door de AI regelmatig evalueren op diversiteit. Dit houdt in dat we waar nodig datasets aanpassen of aanvullen om ervoor te zorgen dat de AI zo eerlijk mogelijk blijft. Door regelmatig te monitoren en te verbeteren, zorgen we ervoor dat onze AI-tool blijft voldoen aan de richtlijnen voor rechtvaardigheid en inclusie.
4. Privacy en gegevensbescherming 🔒
Privacy en gegevensbescherming zijn cruciaal bij het ontwikkelen van een AI-tool, zeker in het onderwijs. Leerlingen en docenten moeten erop kunnen vertrouwen dat hun gegevens veilig worden opgeslagen en verwerkt. Daarom nemen wij strikte maatregelen om de privacy van onze gebruikers te waarborgen.
Een van de manieren waarop we dit doen, is door minimalisatie van gegevens. Dit betekent dat we alleen de strikt noodzakelijke gegevens verzamelen om de AI-tool goed te laten werken.
Ook willen wij een functie inbouwen waarmee we gebruikers waarschuwen dat er mogelijk gevoelige informatie in gegevens kunnen zitten. Het is bijvoorbeeld heel erg makkelijk om privacy gevoelige informatie in een AI-tool te plaatsen. Hier willen wij dus met pop-ups voor waarschuwen.
Tot slot zorgen we ervoor dat gebruikers altijd controle hebben over hun eigen gegevens. Docenten en leerlingen kunnen eenvoudig hun gegevens bekijken, aanpassen of verwijderen.
5. Maatschappelijk en ecologisch welzijn 🌱
Bij het ontwikkelen van onze AI-tool willen we niet alleen focussen op het directe gebruik in het onderwijs, maar ook op de bredere maatschappelijke en ecologische impact. Dit betekent dat we ervoor zorgen dat onze AI-oplossingen bijdragen aan het welzijn van de maatschappij en dat we verantwoord omgaan met energiegebruik.
Een belangrijk onderdeel hiervan is het toepassen van Green AI. Dit houdt in dat we proberen om onze AI-tool zo energiezuinig mogelijk te maken. AI-modellen kunnen veel rekenkracht vereisen, wat leidt tot een hoog energieverbruik. Daarom kiezen we bewust voor efficiënte modellen en optimaliseren we onze infrastructuur om de ecologische impact te minimaliseren.
Daarnaast willen we in de AI-tool bewustzijn creëren bij docenten en leerlingen over duurzaam gebruik van technologie. Dit doen we bijvoorbeeld door energieverbruik inzichtelijk te maken in de tool. Gebruikers kunnen zien hoeveel energie hun AI-verzoeken ongeveer kosten en krijgen tips om efficiënter met de tool om te gaan.
6. Verantwoording 📞
Een cruciale richtlijn is verantwoording. Dit houdt in dat wij als ontwikkelaars van de AI-tool altijd aanspreekbaar zijn en verantwoordelijkheid nemen voor eventuele fouten of problemen die ontstaan door het gebruik van onze AI-tool.
Wij willen deze richtlijn implementeren door een duidelijk contactpunt in te richten waar gebruikers fouten kunnen melden. Dit kan via een ingebouwde feedbackfunctie in de tool en via een speciaal contactformulier op onze website. Zo kunnen gebruikers snel en eenvoudig hun zorgen of vragen met ons delen.
Daarnaast zullen wij regelmatig audits uitvoeren om te controleren of de AI-tool voldoet aan de ethische richtlijnen. Eventuele bevindingen delen we transparant met onze gebruikers, zodat zij kunnen zien welke stappen we nemen om de tool continu te verbeteren.
Tot slot zullen we een aanspreekpunt aanwijzen voor scholen en andere organisaties die onze tool gebruiken. Dit aanspreekpunt is beschikbaar voor vragen, klachten of suggesties en zorgt ervoor dat gebruikers zich gehoord voelen. Op deze manier blijven we als ontwikkelaars verantwoordelijk en zorgen we ervoor dat de AI-tool op een veilige en verantwoorde manier wordt ingezet in het onderwijs.
7. Technische weerstand en veiligheid 🔧
De laatste richtlijn die wij hanteren is technische weerstand en veiligheid. Dit betekent dat we ervoor zorgen dat onze AI-tool bestand is tegen fouten, misbruik en cyberaanvallen. Technische veiligheid is essentieel om de betrouwbaarheid van onze tool te waarborgen en gebruikers te beschermen.
Wij willen deze richtlijn implementeren door gebruik te maken van goede beveiligingsmechanismen en standaarden. Hiermee zorgen we ervoor dat de AI-tool beschermd is tegen ongeoorloofde toegang en dat eventuele kwetsbaarheden snel worden opgespoord en opgelost.
Tot slot bieden we trainingen aan gebruikers over veilig gebruik van de AI-tool. Dit omvat onderwerpen zoals het veilig omgaan met gegevens en goed gebruikt van AI toepassingen.
Hoe verder met de AI-tool?
Veel van de toepassingen in dit artikel gaan wij de komen maanden uitbrengen in onze AI-tool genaamd AIvoorOnderwijs.com. Je kan binnenkort gratis een account aanmaken en de eerste functionaliteiten van de AI-tool uitproberen! Wil je in gesprek gaan over de mogelijkheden? Neem contact op via info@ai-vo.nl of bel naar +31 (0) 6 575 165 14 en wij gaan graag in gesprek.