Tools & resources
Start vandaag nog als zelfstandige via het online ondernemingsloket van Liantis
Heb je er altijd al van gedroomd je eigen zaak te starten? Ontdek onze gratis startersreeks.
Sluit je vandaag nog aan bij het Sociaal Verzekeringsfonds
Sluit je vandaag nog aan bij het sociaal Verzekeringsfonds
Ready, set, go!
Zoek snel de NACE-cijfercode op van de activiteiten die je als ondernemer uitoefent.
Nooit meer een belangrijke deadline missen? Behoud een klare kijk op je hr en administratie met de Liantis kmo-kalender.
Een podcast van Liantis voor accountants
Meest gezocht
De Europese AI-verordening, die al in werking trad op 1 augustus 2024, voorziet heel wat regels voor aanbieders, fabrikanten, importeurs en distributeurs van AI-systemen. De toepassing ervan wordt in de tijd gespreid, met nu op 2 februari 2025 opnieuw een belangrijke deadline. Vanaf dan wordt het verboden om te werken met AI-systemen met een onaanvaardbaar risico (de bepaling daarvan lees je hieronder).
Concreet doen werkgevers er goed aan om op te lijsten welke AI-systemen gebruikt worden binnen hun onderneming, door wie en voor welk doel. Bovendien moet je als werkgever vanaf 2 februari 2025 ook acties ondernemen om de AI-geletterdheid of -bewustwording binnen jouw onderneming te bevorderen.
AI of artificiële intelligentie sluipt steeds meer ons leven binnen. Sluipt, want vaak weten we niet of producten waar we gebruik van maken al dan niet gemaakt zijn met AI.
AI kan een belangrijk concurrentievoordeel opleveren en ondernemingen helpen om gunstige resultaten te behalen, maar tegelijkertijd kan AI risico’s met zich meebrengen en schade aanrichten.
Om ervoor te zorgen dat er een gelijk concurrentieveld bestaat binnen Europa enerzijds én de openbare belangen en grondrechten van de Uniewetgeving worden beschermd anderzijds, heeft Europa een verordening uitgevaardigd. Dit met als doel de werking van de interne markt te verbeteren door een uniform rechtskader vast te stellen voor de ontwikkeling, het in de handel brengen, het in gebruik stellen, en het gebruik van artificiële intelligentiesystemen (AI-systemen) in de Unie.
De Europese verordening voorziet heel wat regels voor aanbieders, fabrikanten, importeurs en distributeurs van AI-systemen. Maar ook voor gebruiksverantwoordelijken, zijnde alle natuurlijke of rechtspersonen die een AI-systeem onder eigen verantwoordelijkheid gebruiken, werden een aantal rechten en plichten vooropgesteld.
Werkgevers zullen doorgaans als gebruiksverantwoordelijken optreden, maar wanneer men een bestaand AI-systeem verder laat ontwikkelen en ter beschikking stelt voor gebruik onder eigen naam, kan men ook als aanbieder aanzien worden.
In wat volgt gaan we dieper in op de rechten en plichten van de gebruiksverantwoordelijken en we leggen ook de link met de verplichtingen voor de Algemene Verordening Gegevensbescherming (ook wel General Data Protection Regulation of GDPR).
De AI-verordening is in werking getreden op 1 augustus 2024, maar de toepassing ervan wordt in de tijd gespreid. Hieronder geven we telkens aan wanneer de concrete bepalingen in werking treden.
De verordening definieert een AI-systeem als een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen. Met andere woorden: een AI-systeem is een computersysteem dat specifiek is ontworpen om data te analyseren, patronen te identificeren en die kennis te gebruiken om weloverwogen beslissingen te nemen of voorspellingen te doen.
Er zijn verschillende soorten AI-systemen in omloop en ontwikkeling, elk met hun eigen risico’s voor de gezondheid, de veiligheid en de grondrechten van de Europese Unie. In de verordening maakt men een onderscheid in aanpak en regelgeving, in overeenstemming met het risico dat aan het AI-systeem verbonden is.
In deze categorie bevinden zich AI-systemen waarvan het gebruik onaanvaardbaar wordt geacht. Dit omdat dergelijke systemen in strijd zijn met de waarden van de Unie, bijvoorbeeld vanwege een schending van grondrechten. Zulke AI-systemen worden dan ook verboden binnen de Europese Unie.
Concreet slaat het verbod op AI-systemen die een aanzienlijk potentieel hebben om personen, zonder dat ze zich daarvan bewust zijn, te manipuleren of misbruik te maken van de kwetsbaarheid van specifieke kwetsbare groepen, zoals kinderen of personen met een handicap. Zo verbiedt de verordening op AI gebaseerde ‘sociale scoring’, waarbij mensen beoordeeld worden op basis van hun sociale gedrag of persoonlijke kenmerken. Ook AI-systemen met emotieherkenning worden verboden, net als het gebruik van ‘realtime’ biometrische systemen voor identificatie op afstand in openbare ruimten.
Werkgevers moeten nagaan of ze geen verboden AI-systemen gebruiken. Mocht dat effectief het geval zijn, moeten ze vóór 2 februari 2025 het gebruik stoppen. Vanaf 2 augustus 2025 riskeren organisaties die verboden AI ontwikkelen of inzetten hoge boetes.
AI-systemen met een hoog risico zijn wel toegelaten op de Europese markt, maar ze moeten wel voldoen aan bepaalde dwingende voorschriften en vooraf een conformiteitsbeoordeling ondergaan (waar de aanbieder voor moet instaan).
De verordening voorziet een lijst van AI-systemen die als ‘hoog risico’ worden aangeduid. Dit gaat dan over systemen die je kan gebruiken bij het werven of selecteren van natuurlijke personen, met name voor het plaatsen van gerichte vacatures, het analyseren en filteren van sollicitaties, en het beoordelen van kandidaten.
In deze categorie passen ook AI-systemen die beslissingen kunnen nemen die van invloed zijn op de voorwaarden, de bevordering en/of de beëindiging van contractuele arbeidsrelaties.
Ook AI-systemen die beslissingen kunnen helpen nemen over de toewijzing van taken op basis van individueel gedrag of persoonlijke eigenschappen of kenmerken horen hier thuis, net als AI-systemen die prestaties en gedrag van personen in contractuele arbeidsrelaties monitoren en evalueren.
Als gebruiksverantwoordelijke moet een werkgever die gebruik maakt van AI-systemen met een hoog risico:
De verplichtingen rond AI-systemen met hoge risico’s moeten vanaf 2 augustus 2026 gerespecteerd worden.
Deze categorie omvat AI-systemen waarvan men het risico voor de rechten van de EU-burgers eerder beperkt inschat, omdat ze de besluitvorming niet wezenlijk beïnvloeden of die belangen niet wezenlijk schaden.
Een AI-systeem met een beperkt risico voldoet aan volgende voorwaarden:
Voor dergelijke AI-systemen met beperkte risico’s moet je als gebruiksverantwoordelijke (werkgever) voldoen aan bepaalde informatie- en transparantieverplichtingen:
De verordening bepaalt dat deze informatie verstrekt moet worden volgens de in de lidstaat geldende regels, procedures en praktijken. Bij de ingebruikname van een AI-systeem met hoge risico’s moet daarom zeker nagegaan worden of dit systeem voldoet aan de voorwaarden om als invoering van nieuwe technologie beschouwd te worden in de zin van cao nr. 39. Is dit het geval, dan moet de ondernemingsraad geïnformeerd en geraadpleegd worden.
De bepalingen over de informatie- en transparantieverplichtingen voor AI-systemen met beperkte risico’s moeten gerespecteerd worden vanaf 2 augustus 2026.
Voor AI-systemen die geen of minimale risico’s inhouden, voorziet de Europese verordening geen specifieke verplichtingen.
Werkgevers moeten vanaf 2 februari 2025 voorts ook maatregelen nemen om, zoveel als mogelijk, te zorgen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen AI-systemen exploiteren en gebruiken.
AI-geletterdheid gaat over de vaardigheden en de kennis die, en het begrip dat iedereen in de organisatie, betrokken bij AI-systemen, nodig heeft om geïnformeerd Al-systemen in te zetten en bewust te zijn van de kansen en risico's van Al en de mogelijke schade die AI kan veroorzaken.
De manier waarop deze AI-geletterdheid verworven moet worden, wordt niet verder omschreven in de verordening. De werkgever kan dus zelf de te nemen stappen bepalen. Dit kan gaan van een algemene AI-training tot specifieke cursussen, toegespitst op het gebruik van een specifiek AI-systeem.
Als werkgever doe je er goed aan om duidelijke richtlijnen op te stellen voor het gebruik van AI-systemen binnen je organisatie. In een AI-policy kan je voorzien welke systemen gebruikt mogen worden, voor welke doeleinden, door welke personeelsleden enzovoort.
De gegevensbeschermingsautoriteit heeft een brochure uitgebracht waarbij ze de verplichtingen uit de AI-verordening toetst aan de verplichtingen die uitgewerkt werden in de GDPR. Het gaat dan concreet over:
Wie de regels van de AI-verordening overtreedt, riskeert aanzienlijke boetes. Zo kan een overtreding van de voorschriften rond verboden AI-systemen leiden tot een administratieve boete van 35 miljoen euro of 7% van de jaarlijkse omzet van het bedrijf. De boetes zijn van toepassing vanaf 2 augustus 2025.
Als werkgever doe je er goed aan om nu al op te lijsten welke AI-systemen gebruikt worden binnen je onderneming, door wie en voor welk doel. Deze systemen moeten dan ingeschaald worden naargelang het risico (onaanvaardbaar risico, hoog risico, beperkt risico of minimaal risico). Omdat het verbod op AI-systemen met onaanvaardbaar risico ingaat vanaf 2 februari 2025 maak je deze analyse best zo snel mogelijk.
Op basis van dit overzicht kan de onderneming dan haar verplichtingen in kaart brengen en een actieplan opstellen. Zo moeten werkgevers vanaf 2 februari 2025 ook al acties ondernemen om de AI-geletterdheid of -bewustwording binnen de onderneming te bevorderen.