AI – oftewel kunstmatige intelligentie – is al niet meer weg te denken in de schoonmaakbranche. De techniek is veelbelovend en innovaties volgen elkaar in rap tempo op. Om ervoor te zorgen dat AI veilig en betrouwbaar wordt ontwikkeld en toegepast, is begin deze maand de AI-verordening in de Europese Unie in werking getreden.
De Europese eisen en kaders voor AI zorgen ervoor dat we optimaal van de (economische) kansen van AI kunnen profiteren, dat de risico’s van AI-systemen en toepassingen aangepakt worden en de ontwikkeling van betrouwbare AI gestimuleerd wordt. De verordening wordt stapsgewijs van toepassing.
De AI-regels & eisen
De AI-verordening moet betrouwbare AI in de EU garanderen door eisen te stellen aan de ontwikkeling en het gebruik van de systemen. Toepassingen van AI die echt ontoelaatbare risico’s opleveren voor mensen, worden uiteraard verboden. Aan AI met hoge risico’s, zoals bij toepassingen op de arbeidsmarkt, worden duidelijke eisen gesteld. Bij bepaalde AI-toepassingen die met burgers contact hebben (zoals chatbots) of content maken of manipuleren (deepfakes) moet het duidelijk zijn dat dit AI is. Aan AI-toepassingen die weinig of geen risico’s met zich meebrengen worden geen nieuwe eisen gesteld. En zeker niet onbelangrijk; de Europese regels zorgen voor een gelijk speelveld. Ook niet-Europese aanbieders van AI-producten en AI-diensten moeten aan de regels voldoen als zij deze hier aanbieden.
STAP VOOR STAP
De verordening is op 1 augustus 2024 in werking getreden, maar de verschillende onderdelen worden gefaseerd ingevoerd.
- februari 2025: bepalingen op verboden AI;
- augustus 2025: eisen voor AI voor algemeen gebruik (general purpose AI);
- augustus 2026: eisen voor hoog-risico AI-toepassingen en transparantieverplichtingen;
- augustus 2027: eisen voor hoog-risico AI-producten: volledige AI-verordening is dan van toepassing;
- augustus 2030: eisen voor hoog-risico AI-systemen bij overheidsorganisaties die vóór augustus 2026 op de markt zijn gebracht.
De Europese Commissie zal toezicht houden op grote AI-modellen die voor verschillende doeleinden worden ingezet. Nationale toezichthouders zorgen ervoor dat de regels voor hoog-risico AI worden nageleefd, zoals vastgelegd in de nationale wetgeving.
Tekst: van de redactie