De recente goedkeuring van de EU AI Act door de Europese Unie introduceert een robuust juridisch kader voor het gebruik van kunstmatige intelligentie (AI). Dit blogartikel bespreekt de classificatie van AI-systemen op basis van risico's, de strikte vereisten voor hoogrisico AI-systemen, verboden AI-praktijken en de impact op woningcorporaties, zowel op korte als lange termijn.
De Europese Unie heeft recentelijk een belangrijke ontwikkeling doorgemaakt met de goedkeuring van de EU AI Act. Deze wetgeving heeft verstrekkende gevolgen voor organisaties binnen de EU die gebruikmaken van kunstmatige intelligentie (AI). In dit blogartikel geven we een overzicht van de EU AI Act, de belangrijkste punten en hoe jouw organisatie zich hierop kan voorbereiden.
Doel van de EU AI Act
De EU AI Act is ontworpen om een robuust juridisch kader te bieden voor het gebruik van kunstmatige intelligentie (AI) binnen de Europese Unie. Het doel is om een veilige en ethische inzet van AI te waarborgen, waarbij de rechten van individuen worden beschermd en innovatie wordt gestimuleerd.
Hoofdlijnen van de EU AI Act
De wetgeving introduceert verschillende maatregelen, waaronder:
- Classificatie van AI-systemen op basis van risico’s
AI-systemen worden ingedeeld in vier risicocategorieën, met specifieke voorschriften voor elk risiconiveau:- Minimaal risico: Deze AI-systemen vormen weinig tot geen risico voor de rechten of veiligheid van individuen. Voorbeelden zijn spamfilters en geautomatiseerde vertalingen. Voor deze categorie gelden geen aanvullende wettelijke eisen.
- Beperkt risico: AI-systemen in deze categorie kunnen een laag risico vormen. Ze moeten voldoen aan specifieke transparantieverplichtingen, zoals het informeren van gebruikers wanneer ze met een AI-systeem te maken hebben. Voorbeelden zijn chatbots die klantenservice bieden.
- Hoog risico: Dit omvat AI-systemen die een significante impact kunnen hebben op de rechten en veiligheid van individuen. Voorbeelden zijn AI-toepassingen in de gezondheidszorg, onderwijs, rechtshandhaving en kritieke infrastructuren. Deze systemen moeten voldoen aan strenge conformiteitsbeoordelingen, transparantie-eisen en menselijk toezicht.
- Onaanvaardbaar risico: AI-toepassingen die een ernstige bedreiging vormen voor de veiligheid, rechten of vrijheden van individuen. Deze toepassingen zijn verboden. Voorbeelden zijn AI-systemen voor sociale scoring door overheden en bepaalde vormen van biometrische surveillance.
- Strikte vereisten voor hoog risico AI-systemen
Voor AI-systemen die als hoog risico worden geclassificeerd, zoals die gebruikt worden in kritieke infrastructuren en de gezondheidszorg, gelden strenge conformiteitsbeoordelingen en verplichtingen met betrekking tot transparantie en menselijk toezicht. - Verbod op bepaalde AI-praktijken
Bepaalde toepassingen van AI die een onaanvaardbaar risico vormen, zoals sociale scoring door overheden, worden volledig verboden. - Transparantieverplichtingen
Gebruikers van AI-systemen moeten op de hoogte worden gebracht wanneer zij met een AI-systeem te maken hebben, en er moeten maatregelen worden genomen om te waarborgen dat AI-systemen eerlijk en transparant opereren.
Generatieve AI
Er komen ook regels voor zogeheten generatieve AI, zoals chatbots (bijvoorbeeld ChatGPT van OpenAI en Gemini van Google). Deze regels zullen naar verwachting over een jaar van kracht gaan, ergens in de zomer van volgend jaar. Het is belangrijk om nu al te beginnen met de voorbereiding op deze veranderingen om ervoor te zorgen dat jouw organisatie compliant is wanneer de regels van kracht worden.
Verboden AI-toepassingen
- Bedrijven en scholen mogen niet aan de slag met emotieherkenning: het automatisch aflezen van een gezicht – bijvoorbeeld in de context van de zogenaamde leugendetector.
- De politie mag alleen onder heel strenge voorwaarden gezichtsherkenning op straat inzetten.
- Het massaal verzamelen van gezichtsfoto’s van het internet om een gezichtendatabase aan te leggen is niet langer toegestaan. Een Amerikaans bedrijf bleek dit jarenlang te doen, waarna onder meer in Nederland onderzoek van de privacytoezichthouder volgde.
Hoog risico AI-systemen
Alle aanbieders van AI-systemen die door Europa als een ‘hoog risico’ worden gezien, moeten transparant zijn over de werking van de software. Wie vragen of klachten heeft over AI-systemen, heeft het recht om van de overheid of het bedrijf informatie daarover te krijgen.
Impact op korte en lange termijn
- Korte termijn
De korte termijn betreft de periode van nu tot en met de invoering van de nieuwe regelgeving, die naar verwachting over een jaar van kracht zal zijn. In deze periode moeten woningcorporaties zich voorbereiden op de naleving van deze nieuwe regelgeving. Dit omvat het identificeren van bestaande AI-systemen binnen jouw organisatie, het beoordelen van hun risicocategorie, en het implementeren van de vereiste maatregelen om aan de wetgeving te voldoen. - Lange termijn
De lange termijn beslaat de periode na de invoering van de nieuwe regelgeving. Op lange termijn zal de EU AI Act bijdragen aan het creëren van een betrouwbaar en ethisch AI-ecosysteem binnen de EU. Voor woningcorporaties betekent dit dat de inzet van AI-systemen veiliger en meer gereguleerd zal zijn, wat kan bijdragen aan een hogere mate van vertrouwen en acceptatie van AI-oplossingen bij huurders en stakeholders.
We raden je aan om proactief te handelen en tijdig te beginnen met de voorbereidingen om aan de vereisten van de EU AI Act te voldoen. Ons team staat klaar om je te ondersteunen bij deze overgang en om eventuele vragen die je hebt te beantwoorden.
Jouw organisatie ontzorgen?
Wij gaan graag het gesprek met je aan!