Regels voor robots

14 juni 2021

Misschien bent u zich er niet bewust van, maar in ons dagelijks leven hebben we regelmatig te maken met kunstmatige intelligentie (al gebruiken we meestal de afkorting van het Engelse Artificial Intelligence: 'AI'). We vinden AI terug in verschillende toepassingen; van de chatbot die u te woord staat in uw favoriete webshop tot de zelfrijdende auto die in de straat voorbij zoeft. Naarmate de technologie achter AI zich steeds verder ontwikkelt en AI meer en meer wordt toegepast, ontstaan er ook nieuwe ethische en juridische vragen.

AI heeft verschillende verschijningsvormen en een specifieke definitie is moeilijk te geven. AI wordt wel aangeduid als 'zelflerende software zonder directe menselijke controle'. Wanneer het niet meer duidelijk is hoe het algoritme precies werkt (ook wel de 'black box' genoemd) kunnen grondrechten in gedrang komen. Om die reden is inzicht in de werking en complexiteit van een AI-systeem wenselijk.

Europa hecht belang aan het hebben van een voortrekkersrol op het gebied van mensgerichte, duurzame, veilige, inclusieve en betrouwbare AI. Dit resulteerde in de publicatie van (onder andere) richtsnoeren voor betrouwbare AI (2019) en een beoordelingslijst voor betrouwbare AI (2020). Op 21 april 2021 heeft de Europese Commissie de concept tekst voor het eerste wettelijke kader voor AI – de AI-Verordening – gepubliceerd. De concept tekst van de AI-Verordening vindt u hier.

Verplichtingen afhankelijk van het risiconiveau van een AI-systeem

Wanneer de AI-Verordening in werking treedt, zijn in alle lidstaten dezelfde (nieuwe) regels van toepassing. Verschillende partijen moeten rekening houden met de AI-Verordening; zo zal deze (onder andere) gelden voor zowel de ontwikkelaar van AI-systemen als voor de gebruikers van AI-systemen. Welke regels gelden, wordt bepaald aan de hand van een risicogebaseerde aanpak. Dit betekent dat de AI-verordening uitgaat van vier risico categorieën: 1) onaanvaardbaar risico, 2) hoog risico, 3) beperkt risico en 4) minimaal risico. Voor iedere categorie gelden verschillende regels.

Onaanvaardbaar risico

AI-systemen met een onaanvaardbaar risico zijn op grond van de AI-Verordening verboden. Dit zijn bijvoorbeeld AI-systemen die beogen het gedrag van mensen te manipuleren zonder dat zij zich ervan bewust zijn. Een AI-systeem dat de kwalificatie hoog risico heeft mag slechts worden gebruikt mits aan strenge verplichtingen wordt voldaan, zoals documentatie van de gebruikte techniek, automatische logging, informatieverstrekking aan gebruikers. Voorbeelden van AI-systemen die als hoog risico worden aangemerkt zijn: kritieke infrastructuurnetwerken (bv. vervoer), AI-toepassing in door robots ondersteunde chirurgie, software voor het screenen van cv’s bij selectieprocedures, essentiële particuliere openbare diensten zoals een kredietwaardigheidsbeoordeling.

Beperkt risico

AI-systemen met een beperkt risico zijn systemen die interactie hebben met natuurlijke personen, emotie herkenningssystemen, biometrische categorisatie systemen en AI-systemen die deep fakes kunnen creëren. Een voorbeeld van een AI-systeem met een beperkt risico is een chatbot in een webshop. Voor dergelijke AI-systemen geldt een transparantieverplichting; voor een persoon die met het AI-systeem te maken krijgt moet helder zijn dat dit een AI-systeem betreft.

Minimaal risico

De overgrote meerderheid van de AI-systemen zijn AI-systemen met een minimaal risico. Gedacht kan worden aan spamfilters en op AI gebaseerde videospellen. Hiervoor gelden in principe geen verplichtingen. Wel wordt aangemoedigd om aan zelfregulering te doen door middel van vrijwillige gedragscodes.

Toezicht en gevolgen van niet nakomen verplichtingen uit AI-Verordening?

De handhaving van de AI-Verordening zal worden uitgevoerd door de toezichthoudende autoriteit die iedere lidstaat op nationaal niveau moet aanwijzen. In de concept AI-Verordeningen zijn ook flinke boetes opgenomen wanneer de AI-verordening wordt overtreden. De hoogste boete – maximaal 30 miljoen euro of 6% van de wereldwijde omzet indien die hoger is – rust bijvoorbeeld op het overtreden van het verbod op AI-systemen met een onaanvaardbaar risico. Een ander voorbeeld is het niet correct, niet compleet of misleidend informeren van de toezichthoudende autoriteit waarvoor een boete van 10 miljoen euro of 2% van de wereldwijde omzet als die hoger is, kan worden opgelegd.

Vervolg; wetgevingsprocedure

Met het publiceren van deze concept AI-Verordening is pas de eerste stap gezet op weg naar het daadwerkelijk inwerkingtreden van de AI-Verordening. Het Europese Parlement en de Raad van de Europese Unie zullen zich nu achtereenvolgens buigen over dit concept en kunnen wijzigingen voorstellen. Beide instellingen moeten akkoord zijn met de tekst van de verordening voordat deze inwerking kan treden. Vanwege de grote impact en complexiteit van de AI-Verordening is het de verwachting dat dit een lang proces zal zijn.

Wat te doen?

De nieuwe concept verordening, het eerder gepubliceerde richtsnoer en de beoordelingslijst laten zien dat het gebruiken van een AI-systeem steeds meer concrete verplichtingen voor (onder andere) ontwikkelaars en gebruikers met zich mee brengt/zal brengen. Voor ontwikkelaars betekent dit dat zij zich bij de ontwikkeling bewust moeten zijn van ethische aspecten en toekomstige verplichtingen zoals het inbouwen van logging of de mogelijkheid van menselijk toezicht. Maar ook gebruikers kunnen nu al bewuster handelen ten aanzien van AI-systemen. Bij de aanschaf van een applicatie moeten hierover vragen worden gesteld en zijn goede afspraken over de verantwoordelijkheden en verplichtingen ten aanzien van AI-componenten wenselijk.

Vragen of meer informatie?

Heeft u na het lezen van dit artikel nog vragen over de AI-Verordening of IT-recht in brede zin, aarzel dan niet om contact op te nemen met Caro Mennen via telefoonnummer 088 627 22 20 of e-mail: caro.mennen@pellicaan.nl.