diff --git a/README.md b/README.md index dfa243f5..e4bcd162 100644 --- a/README.md +++ b/README.md @@ -1,46 +1,70 @@ # AI-act-beslisboom -Deze git repository bevat de beslisboom op basis van de AI Act. Het project omvat 3 onderdelen. +Deze git repository bevat de beslisboom op basis van de AI Verordening. Het project omvat 3 onderdelen. 1. De beslisboom: [decision-tree.yaml](decision-tree.yaml) 2. Een frontend voor de visualisatie van de beslisboom: [frontend](frontend/) 3. Kubernetes deployment code: [infra](infra/) -## Beslisboom +Door deze beslisboom te doorlopen, krijgt uw organisatie inzicht in de volgende vragen: + +- Is er sprake van een **AI-systeem** , een **AI-systeem voor algemene doeleinden** of een **AI-model voor algemene doeleinden**? +- Is het systeem/model **open source** of niet? +- Is de AI-verordening van toepassing? Is er sprake van een **uitzonderingsgrond**? +- Binnen welke **risicocategorie** valt het AI-systeem? +- Is er sprake van een **systeemrisico** of **transparantierisico**? +- Bent u een **aanbieder** of een **gebruiksverantwoordelijke** van het AI-systeem? +- Aan welke **verplichtingen** moet u voldoen bij de inzet van het AI-systeem? + +Om u te helpen bij het beantwoorden van de vragen, zijn relevante overwegingen / artikelen / bijlagen van de AI Verordening gelinkt per vraag. + +## Beslisboom componenten De beslisboom is gevat in [decision-tree.yaml](decision-tree.yaml). U kunt deze bekijken met elke editor die u fijn vindt. -De beslisboom heeft componenten die vast gelegdt zijn in een schema. Zie [schema](schemas/base.schema.json). Dit schema zorgt ervoor dat software/systemen weet welke velden verwacht worden. +De beslisboom heeft componenten die vastgelegd zijn in een schema. Zie [schema](schemas/base.schema.json). Dit schema zorgt ervoor dat het systeem weet welke velden verwacht worden. De beslisboom is opgebouwd uit de volgende componenten: ```sh version: string # versie van decisionTree -name: string # Naam van decisionTree +name: string # naam van decisionTree questions: array(Question) # de vragen zoals gedefineerd hieronder -Question: # Definitie van 1 vraag +Question: # definitie van 1 vraag questionId: string # een unique identifier voor de vraag - question: string # De vraag die gesteld wordt + question: string # de vraag die gesteld wordt questionType: enum # het type vraag - answers: array(Answer) # De mogelijke antwoorden zoals hieronder gedefineerd + description: string # optioneel: een extra opmerking bij de vraag + source: string # optioneel: een verwijzing, naar bijvoorbeeld een wetsartikel + source_url: string # optioneel: een link naar de bovengenoemde verwijzing + answers: array(Answer) # de mogelijke antwoorden zoals hieronder gedefineerd Answer: # definitie van 1 antwoord answer: string # de text van het antwoord - nextQuestionId: string # optioneel de QuestionId van de volgende vraag - result: string # optioneel de eind conclusie - answerComment: string # optioneel extra commentaar bij het antwoord + nextQuestionId: string # optioneel: de QuestionId van de volgende vraag + subresult: string # optioneel: een tussenresultaat voordat naar de volgende vraag verwezen wordt + labels: array # optioneel: labels toegekend aan het bijbehorende tussenresultaat + result: string # optioneel: het eindresultaat + answerComment: string # optioneel: extra commentaar bij het antwoord + +Conclusion: # definitie van 1 eindconclusie + conslusion: string # de eindconclusie + conclusionComment: string #optioneel: een extra opmerking bij de conclusie + obligation: string # de bij de conclusie bebehorende verplichtingen uit de AI verordening + source: string # optioneel: een verwijzing, naar bijvoorbeeld een wetsartikel + source_url: string # optioneel: een link naar de bovengenoemde verwijzing ``` -## frontend +## Frontend -Om door de beslisboom te lopen hebben we een visualizatie tool gemaakt. Met deze tool kan je door de vragen lopen. De frontend is beschikbaar op deze [website](https://ai-act-decisiontree.apps.digilab.network). Voor nu heeft men nog een wachtwoord nodig om de website te bekijken. Deze kan je opvragen bij ruth. +Om door de beslisboom te lopen is een visualizatie tool gemaakt. Met deze tool kunt u door de vragen lopen. De frontend is beschikbaar op deze [website](https://ai-act-decisiontree.apps.digilab.network). Voor nu is er nog een wachtwoord nodig om de website te bekijken. Deze kan bij Ruth worden opgevraagd. -### frontend locaal draaien +### Frontend locaal draaien Om de development omgeving te standariseren maken we gebruik van [devcontainers](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started). -Als men in de devcontainer zit kan met de volgende commandos uitvoeren. voordat dit kan gaat u eerst in de frontend/ folder staan met een terminal. +Als u in de devcontainer zit kunt u de volgende commandos uitvoeren. Voordat dit kan gaat u eerst in de frontend/ folder staan met een terminal. Start de tool: @@ -70,15 +94,17 @@ Nu is de website beschikbaar op deze locale [site](http://localhost:9090) ## Infra -Er is een klein stukje infra code geschreven voor kubernetes zodat de applicaties gehost kan worden. Om dit uit te kunnen voeren heeft u een kubernetes cluster nodig en [kubectl](https://kubernetes.io/docs/tasks/tools/). Dit inatellen laten we buiten beschouwing voor deze readme. Als men het ingesteld heeft kan met het volgende commande uitvoeren. +Er is een klein stukje infra code geschreven voor kubernetes zodat de applicaties gehost kan worden. Om dit uit te kunnen voeren heeft u een kubernetes cluster nodig en [kubectl](https://kubernetes.io/docs/tasks/tools/). Dit inatellen laten we buiten beschouwing voor deze readme. Als men het ingesteld heeft kan met het volgende commando uitvoeren. ```sh kubectl apply -k infra/ ``` -## Validate schema of YAML +## Validatie schema + +Door het volgende script te runnen, kunt u controlen of het bestand decision-tree.yaml (technisch) valide is. Eventuele (syntax)fouten worden hiermee aangegeven. ```sh -./scripts/validate --schema_file schemas/base.schema.json --yaml_file tests/sample-decision-tree-complex.yaml +./scripts/validate --schema_file schemas/base.schema.json --yaml_file decision-tree.yaml ``` diff --git a/decision-tree.yaml b/decision-tree.yaml index 5408f885..ca52a8fc 100644 --- a/decision-tree.yaml +++ b/decision-tree.yaml @@ -2,606 +2,1150 @@ version: 1.0.0 name: Decision Tree questions: -### root: definitie algoritme ARK -- questionId: '0' - question: Voldoet je algoritme aan de definitie van 'algoritme' van de ARK? 'Een set van regels en instructies die een computer geautomatiseerd volgt bij het maken van berekeningen om een probleem op te lossen of een vraag te beantwoorden.' +### check definitie algoritme ARK +- questionId: "0" + question: "Voldoet je algoritme aan de definitie van 'algoritme' van de Algemene Rekenkamer? Een set van regels en instructies die een computer geautomatiseerd volgt bij het maken van berekeningen om een probleem op te lossen of een vraag te beantwoorden." questionType: SingleChoice answers: - answer: Ja - nextQuestionId: '1.0' + nextQuestionId: "1.0" - answer: Nee - result: Je gebruikt geen algoritme. Houd je wel aan bestaande wet- en regelgeving (bijv. AVG wanneer je persoonsgegevens verwerkt) # Bak A: geen algoritme + nextConclusionId: "12.24" + labels: + - "geen algoritme" -### definitie AI systeem -- questionId: '1.0' - question: 'Betreft je algoritme een AI-systeem volgens definitie AI-verordening? Daarbij kan gebruik worden gemaakt van de volgende definities uit artikel 3 van de AI-verordening: - - ''AI-systeem'': een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud,aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen - - ''AI-systeem voor algemene doeleinden'': een AI-systeem dat is gebaseerd op een AI-model voor algemene doeleinden en dat verschillende doeleinden kan dienen, zowel voor direct gebruik als voor integratie in andere AI-systemen' - questionType: MultipleChoice - answers: - - answer: Ja, het betreft een AI-systeem, maar geen AI-systeem voor algemene doeleinden - nextQuestionId: '2.0' - - answer: Ja, het betreft een AI-systeem voor algemene doeleinden - nextQuestionId: '7.0' - - answer: Nee - nextQuestionId: '9.0' - -### reikwijdte AI verordening -- questionId: '2.0' - question: 'Bepaal reikwijdte AI-verordening. Is het antwoord op alle volgende vragen Nee? Dan is de AI-verordening van Toepassing. Vragen: - - 1. Zal je AI-systeem of de output van het systeem uitsluitend in de handel wordt gebracht, in gebruik worden gesteld of - al dan niet gewijzigd - worden gebruikt voor militaire, defensie- of nationale veiligheidsdoeleinden, ongeacht het soort entiteit dat deze activiteiten uitvoert? - - 2. Ga je een AI-systeem ontwikkelen, maar alleen met wetenschappelijk onderzoek als enig doel? - - 3. Ben je momenteel, of ga je binnekort beginnen met onderzoeks-, test- of ontwikkelingsactiviteiten met betrekking tot AI-systemen of AI-modellen voor zij in de handel worden gebracht of in gebruik worden gesteld? - - 4. Ga je een AI-systeem ontwikkelen die gratis beschikbaar wordt gesteld of vrijgegeven onder opensourcelicenties?' - questionType: SingleChoice - answers: - - answer: Het antwoord op alle vier de vragen is Nee - answerComment: "De AI-verordening is van toepassing." - nextQuestionId: '3.0' - - answer: "\xC9\xE9n of meer vragen zijn met Ja beantwoord" - answerComment: "De AI-verordening is niet van toepassing" - nextQuestionId: '9.0' - -### Verboden AI systemen -- questionId: '3.0' - question: We gaan bepalen of je AI-systeem valt onder de verboden systemen van artikel 5 van de AI-verordening. Zou je AI-systeem gebruik kunnen gaan maken van subliminale technieken om mensen onbewust of bewust kunnen manipuleren, waardoor ze beslissingen nemen die ze anders niet zouden hebben genomen? +### check of het een AI-systeem, AI-systeem voor algemene doeleinden of AI-model voor algemene doeleinden is +- questionId: "1.0" + question: "Is er sprake van een machine?" questionType: SingleChoice + sources: + - source: Overweging 12 - Begrip AI-systeem + url: https://artificialintelligenceact.eu/recital/12/ answers: - answer: Ja - result: Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. We adviseren om contact te maken met....om dit verder te bekijken ... # Bak B: verboden AI + nextQuestionId: "1.1" - answer: Nee - nextQuestionId: '3.1' -- questionId: '3.1' - question: Zou je AI-systeem gebruik kunnen gaan maken van kwetsbaarheden van individuen of specifieke groepen, zoals leeftijd, handicaps of sociale/economische omstandigheden, om het gedrag van die personen aanzienlijk te verstoren, wat kan leiden tot aanzienlijke schade bij henzelf of anderen? + nextQuestionId: "1.9" +- questionId: "1.1" + question: "Is er sprake van een systeem gebaseerd op door mensen gedefinieerde regels om taken te automatiseren?" questionType: SingleChoice + sources: + - source: Overweging 12 - Begrip AI-systeem + url: https://artificialintelligenceact.eu/recital/12/ answers: - answer: Ja - result: Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. We adviseren om contact te maken met....om dit verder te bekijken ... # Bak B: verboden AI + nextQuestionId: "1.2" - answer: Nee - nextQuestionId: '3.2' -- questionId: '3.2' - question: Zou je AI-systemen gebruikt kunnen worden om natuurlijke personen of groepen gedurende een periode te evalueren of te classificeren op basis van hun sociale gedrag of afgeleide persoonlijke kenmerken? Dit kan leiden tot nadelige behandelingen die niet gerechtvaardigd zijn en geen verband houden met de oorspronkelijke context van de data of met de ernst van het sociale gedrag. + nextQuestionId: "1.9" +- questionId: "1.2" + question: "Optimaliseert het systeem voor expliciet om impliciete doelstellingen?" questionType: SingleChoice + sources: + - source: Overweging 12 - Begrip AI-systeem + url: https://artificialintelligenceact.eu/recital/12/ answers: - answer: Ja - result: Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. We adviseren om contact te maken met....om dit verder te bekijken ... # Bak B: verboden AI + nextQuestionId: "1.3" - answer: Nee - nextQuestionId: '3.3' -- questionId: '3.3' - question: Zou je AI-systeem gebruikt kunnen worden voor risicobeoordelingen van natuurlijke personen om het risico op crimineel gedrag te voorspellen, gebaseerd op profilering of persoonlijkheidskenmerken? Dit geldt niet voor AI-systemen die worden gebruikt om menselijke beoordelingen te ondersteunen, gebaseerd op objectieve en verifieerbare feiten die rechtstreeks verband houden met criminele activiteiten. + nextQuestionId: "1.9" +- questionId: "1.4" + question: "Maakt het systeem inferenties?" questionType: SingleChoice + sources: + - source: Overweging 12 - Begrip AI-systeem + url: https://artificialintelligenceact.eu/recital/12/ answers: - - answer: Ja - result: Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. We adviseren om contact te maken met....om dit verder te bekijken ... # Bak B: verboden AI - - answer: Nee - nextQuestionId: '3.4' -- questionId: '3.4' - question: Zou je AI-systemen gebruikt kunnen worden om databanken voor gezichtsherkenning aan te leggen of aan te vullen door willkeurige gezichtsafbeeldingen van internet of CCTV-beelden te scrapen? + - answer: Ja + nextQuestionId: "1.5" + - answer: Nee + nextQuestionId: "1.9" +- questionId: "1.5" + question: "Genereert het output zoals een voorspelling, inhoud, aanbeveling of beslissing?" questionType: SingleChoice + sources: + - source: Overweging 12 - Begrip AI-systeem + url: https://artificialintelligenceact.eu/recital/12/ answers: - answer: Ja - result: Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. We adviseren om contact te maken met....om dit verder te bekijken ... # Bak B: verboden AI + nextQuestionId: "1.6" - answer: Nee - nextQuestionId: '3.5' -- questionId: '3.5' - question: Zou je AI-systemen gebruik kunnen worden om emoties van een persoon op de werkplek of in het onderwijs af te leiden? Dit is niet van toepassing als het gebruik van het AI-systeem is bedoeld voor medische- of veiligheidsdoeleinden. + nextQuestionId: "1.9" +- questionId: "1.6" + question: "Heeft het systeem enige mate van autonomie?" questionType: SingleChoice + sources: + - source: Overweging 12 - Begrip AI-systeem + url: https://artificialintelligenceact.eu/recital/12/ answers: - answer: Ja - result: Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. We adviseren om contact te maken met....om dit verder te bekijken ... # Bak B: verboden AI + nextQuestionId: "1.7" - answer: Nee - nextQuestionId: '3.6' -- questionId: '3.6' - question: "Zou je AI-systemen gebruikt kunnen worden om natuurlijke personen individueel in categorie\xEBn in te delen op basis van biometrische gegevens om ras, politieke opvattingen, lidmaatschap van een vakbond, religieuze of levensbeschouwelijke overtuigingen, seksleven of seksuele geaardheid af te leiden? Dit verbod geldt niet voor het labelen of filteren van rechtmatig verkregen biometrische datasets, zoals afbeeldingen, op basis van biometrische gegevens, of voor categorisering van biometrische gegevens op het gebied van rechtshandhaving." + nextQuestionId: "1.9" +- questionId: "1.7" + question: "Heeft het systeem na de implementatie aanpassingsvermogen?" questionType: SingleChoice + sources: + - source: Overweging 12 - Begrip AI-systeem + url: https://artificialintelligenceact.eu/recital/12/ answers: - answer: Ja - result: Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. We adviseren om contact te maken met....om dit verder te bekijken ... # Bak B: verboden AI + nextQuestionId: "1.8" - answer: Nee - nextQuestionId: '3.7' -- questionId: '3.7' - question: "Zou je AI-systeem gebruik kunnen worden voor biometrische identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving? Dit geldt niet als het systeem strikt noodzakelijk is voor een van de volgende doelen:\ni) Gericht zoeken naar specifieke slachtoffers van ontvoering, mensenhandel of seksuele uitbuiting, evenals het zoeken naar vermiste personen.\nii) Voorkomen van een specifieke, aanzienlijke en onmiddellijke dreiging voor het leven of de fysieke veiligheid van personen, of een re\xEBle en actuele of voorspelbare dreiging van een terroristische aanslag.\niii) Lokalisatie of identificatie van een persoon die verdacht wordt van het plegen van een strafbaar feit, voor strafrechtelijk onderzoek of vervolging, met een maximale straf van ten minste vier jaar vrijheidsbeneming zoals vermeld in bijlage II van de betrokken lidstaat." + nextQuestionId: "1.9" +- questionId: "1.8" + question: "Kan het systeem de omgeving beïnvloeden?" questionType: SingleChoice + sources: + - source: Overweging 12 - Begrip AI-systeem + url: https://artificialintelligenceact.eu/recital/12/ answers: - answer: Ja - result: Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. We adviseren om contact te maken met....om dit verder te bekijken ... # Bak B: verboden AI + subresult: "Aan alle vereisten is voldaan. Er is sprake van een AI-systeem." + labels: + - "AI-systeem" + nextQuestionId: "1.0.1" - answer: Nee - answerComment: Het lijkt er op dat je AI-systeem geen verboden systeem is. We gaan nu bepalen of het systeem valt onder de hoog-risico categorisatie van de AI-verordening. - nextQuestionId: '4.0' - -### Hoog risico AI Act - bijlage I -- questionId: '4.0' - question: Is het AI-systeem bedoeld om te worden gebruikt als veiligheidscomponent van een product of is het AI-systeem zelf een product dat valt onder de in bijlage I van de AI-verordening (link) opgenomen harmonisatiewetgeving van de Unie? + nextQuestionId: "1.9" +- questionId: "1.9" + question: "Kan de AI een groot scala aan onderscheidende taken uitvoeren?" questionType: SingleChoice + sources: + - source: Overweging 12 - Begrip AI-systeem + url: https://artificialintelligenceact.eu/recital/12/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem en moet voldoen aan bepaalde vereisten. We gaan nu bepalen welke rol je hebt om te bepalen aan welke vereisten je moet voldoen. - nextQuestionId: '4.2.0' - - answer: Nee - nextQuestionId: '4.1' -- questionId: '4.1' - question: Moet het product waarvan het AI-systeem de veiligheidscomponent vormt een conformiteits-beoordeling door een derde partij laten uitgevoeren met het oog op het in de handel brengen of in gebruik stellen van dat product op grond van de in bijlage I opgenomen harmonisatiewetgeving van de Unie? - questionType: SingleChoice + subresult: "Er is sprake van een AI-model voor algemene doeleinden." + labels: + - "AI-systeem voor algemene doeleinden" + nextQuestionId: "1.10" + - answer: Nee + subresult: "De AI-verordening is niet van toepassing." + labels: + - "AI-verordening niet van toepassing" + nextQuestionId: "20.0" +- questionId: "1.10" + question: "Wordt het model geïntegreerd in een AI-systeem?" + questionType: SingleChoice + sources: + - source: Overweging 12 - Begrip AI-systeem + url: https://artificialintelligenceact.eu/recital/12/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem en moet voldoen aan bepaalde vereisten. We gaan nu bepalen welke rol je hebt om te bepalen aan welke vereisten je moet voldoen. - nextQuestionId: '4.2.0' - - answer: Nee - nextQuestionId: '5.0' + subresult: "Er is sprake van een AI-systeem voor algemene doeleinden." + labels: + - "AI-systeem voor algemene doeleinden" + nextQuestionId: "1.0.1" + - answer: Nee + subresult: "Er is sprake van een AI-model voor algemene doeleinden." + labels: + - "AI-model voor algemene doeleinden" + nextQuestionId: "1.0.1" -### Check rol bij hoog risico - bijlage I -- questionId: '4.2.0' - question: "Ga je een AI-systeem of een AI-model op de markt brengen of in gebruik stellen onder eigen naam of merk, al dan niet tegen betaling?\nOf ben je een aanbieder van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, waarin een AI-model is ge\xEFntegreerd, ongeacht of het AI-model door hemzelf wordt verstrekt en verticaal ge\xEFntegreerd is of door een andere entiteit wordt aangeboden op basis van contractuele betrekkingen?" - questionType: SingleChoice - answers: - - answer: Ja - result: 'Dan ben je een aanbieder volgens de AI verordening. Je bent een hoog risico AI systeem aan het ontwikkelen en je moet voldoen aan bepaalde vereisten van de AI-verordening (o.a. artikelen 4, 6, 9 t/m 21, 25, 40, 43, 47 t/m 50, 52, 60, 61, 72, 73)' # Bak C: hoog risico AI - bijlage I - aanbieder - # moet je hier dan ook nog checken of je een gebruiksverantwoordelijke bent? Of is dat niet nodig? - - answer: Nee - nextQuestionId: '4.2.1' -- questionId: '4.2.1' - question: Ben je een overheidsinstantie die een AI-systeem onder eigen verantwoordelijkheid gebruikt? Het AI-systeem wordt niet gebruikt in het kader van een persoonlijke niet-beroepsactiviteit - questionType: SingleChoice - answers: - - answer: Ja - nextQuestionId: '4.2.2' - - answer: Nee - result: "Deze beslisboom is gemaakt voor alleen deze twee rollen. Controleer nog een keer goed of \xE9\xE9n van deze rollen misschien toch op jou van toepassing is." # Bak D: hoog risico AI - bijlage I - geen aanbieder - geen gebruiksverantwoordelijke -- questionId: '4.2.2' - question: Zet je jouw naam of merk op een AI-systeem met een hoog risico dat reeds in de handel is gebracht of in gebruik is gesteld, onverminderd contractuele regelingen waarin wordt bepaald dat de verplichtingen anders worden toegewezen +### check of het open-source is +- questionId: "1.0.1" + question: "Is er sprake van een AI die onder een open of vrije licentie wordt gedeeld?" questionType: SingleChoice + sources: + - source: Overweging 102 - Begrip open-source + url: https://artificialintelligenceact.eu/recital/102/ answers: - answer: Ja - result: Dan word je naast gebruiksverantwoordelijke ook beschouwd als een aanbieder van een AI-systeem met een hoog risico en ben je onderworpen aan de verplichtingen van de aanbieder uit hoofde van artikel 16. We raden je daarom aan de beslisboom nog een keer te doorlopen en daarbij aan te geven dat je een aanbieder van een AI-systeem met een hoog risico bent. # Bak E: hoog risico AI - bijlage I - gebruiksverantwoordelijke en beschouwd als aanbieder + nextQuestionId: "1.0.2" - answer: Nee - nextQuestionId: '4.2.3' -- questionId: '4.2.3' - question: "Breng je een substanti\xEBle wijziging aan in een AI-systeem met een hoog risico dat reeds in de handel is gebracht of reeds in gebruik is gesteld op zodanige wijze dat het systeem een AI-systeem met een hoog risico blijft op grond van artikel 6" + subresult: "Er is geen sprake van een open-source model." + labels: + - "geen open-source" + nextQuestionId: "2.1" +- questionId: "1.0.2" + question: "Zijn de broncodes en parameters openbaar voor eenieder?" questionType: SingleChoice + sources: + - source: Overweging 102 - Begrip open-source + url: https://artificialintelligenceact.eu/recital/102/ answers: - answer: Ja - result: Dan word je naast gebruiksverantwoordelijke ook beschouwd als een aanbieder van een AI-systeem met een hoog risico en ben je onderworpen aan de verplichtingen van de aanbieder uit hoofde van artikel 16. We raden je daarom aan de beslisboom nog een keer te doorlopen en daarbij aan te geven dat je een aanbieder van een AI-systeem met een hoog risico bent. # Bak E: hoog risico AI - bijlage I - gebruiksverantwoordelijke en beschouwd als aanbieder - - answer: Nee - nextQuestionId: '4.2.4' -- questionId: '4.2.4' - question: Wijzig je het beoogde doel van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, dat niet als een systeem met een hoog risico is geclassificeerd en reeds in de handel is gebracht of in gebruik is gesteld, op zodanige wijze dat het betrokken AI-systeem een AI-systeem met een hoog risico overeenkomstig artikel 6 wordt - questionType: SingleChoice - answers: - - answer: Ja - result: Dan word je naast gebruiksverantwoordelijke ook beschouwd als een aanbieder van een AI-systeem met een hoog risico en ben je onderworpen aan de verplichtingen van de aanbieder uit hoofde van artikel 16. We raden je daarom aan de beslisboom nog een keer te doorlopen en daarbij aan te geven dat je een aanbieder van een AI-systeem met een hoog risico bent. # Bak E: hoog risico AI - bijlage I - gebruiksverantwoordelijke en beschouwd als aanbieder - - answer: Nee - result: Dan word je alleen als gebruiksverantwoordelijke beschouwd en niet als een aanbieder van een AI-systeem met een hoog risico. # Bak F: hoog risico AI - bijlage I - gebruiksverantwoordelijke - geen aanbieder + subresult: "Er is sprake van een open-source model." + labels: + - "open-source" + nextQuestionId: "2.1" + - answer: Nee + subresult: "Er is geen sprake van een open-source model." + labels: + - "geen open-source" + nextQuestionId: "2.1" -### Hoog risico AI - toepassingsgebieden -- questionId: '5.0' - question: Is je AI-systeem bedoeld om te worden gebruikt voor biometrische identificatie op afstand? +### check of AI verordening van toepassing is of uitzonderingsgrond +- questionId: "2.1" + question: "We gaan nu bepalen of de toepassing binnen de reikwijdte van de AI-verordening. Is er sprake van een AI-systeem die uitsluitend in de handel wordt gebracht/in gebruik wordt gesteld/wordt gebruikt voor militaire-, defensie-, of nationale veiligheidsdoeleinden?" questionType: SingleChoice + sources: + - source: Artikel 2 + url: https://artificialintelligenceact.eu/article/2/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + labels: + - "uitzonderingsgrond: AI-verordening niet van toepassing" + nextConclusionId: "12.25" - answer: Nee - nextQuestionId: '5.1' -- questionId: '5.1' - question: Is je AI-systeem bedoeld om te worden gebruikt voor biometrische categorisering op basis van gevoelige of beschermde eigenschappen of kenmerken, of op basis van wat uit die eigenschappen of kenmerken wordt afgeleid? + nextQuestionId: "2.2" +- questionId: "2.2" + question: "Is er sprake van een AI-systeem die niet in de Unie in handel wordt gebracht/in gebruik wordt gesteld en waarvan de output in de Unie uitsluitend wordt gebruikt voor militaire-, defensie-, of nationale veiligheidsdoeleinden?" questionType: SingleChoice + sources: + - source: Artikel 2 + url: https://artificialintelligenceact.eu/article/2/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + labels: + - "uitzonderingsgrond: AI-verordening niet van toepassing" + nextConclusionId: "12.25" - answer: Nee - nextQuestionId: '5.2' -- questionId: '5.2' - question: Is je AI-systeem bedoeld om te worden gebruikt als biometrische systeem voor emotieherkenning? + nextQuestionId: "2.3" +- questionId: "2.3" + question: "Is er sprake van een overheidsinstantie in een derde land of een internationale organisatie die ogv art. 2 lid 1 Binnen het toepassingsgebied van deze verordening vallen, wanneer zij AI-systemen gebruiken in het kader van internationale samenwerking of overeenkomsten met de Unie of een of meer lidstaten op het gebied van rechtshandhaving en justitie, op voorwaarde dat het land/organisatie passen waarborgen biedt?" questionType: SingleChoice + sources: + - source: Artikel 2 + url: https://artificialintelligenceact.eu/article/2/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + labels: + - "uitzonderingsgrond: AI-verordening niet van toepassing" + nextConclusionId: "12.25" - answer: Nee - nextQuestionId: '5.3' -- questionId: '5.3' - question: Is je AI-systeem bedoeld om te worden gebruikt als veiligheidscomponent bij het beheer of de exploitatie van kritieke digitale infrastructuur, wegverkeer of bij de levering van water, gas, verwarming en elektriciteit? + nextQuestionId: "2.4" +- questionId: "2.4" + question: "Is er sprake van een AI-systeem die in gebruik wordt gesteld/in handel is gebracht voor onderzoeks-, test- of ontwikkelingsactiviteiten? Testen onder reële omstandigheden valt hier niet onder." questionType: SingleChoice + sources: + - source: Artikel 2 + url: https://artificialintelligenceact.eu/article/2/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + labels: + - "uitzonderingsgrond: AI-verordening niet van toepassing" + nextConclusionId: "12.25" - answer: Nee - nextQuestionId: '5.4' -- questionId: '5.4' - question: Is je AI-systeem bedoeld om te worden gebruikt voor het bepalen van toegang of toelating tot of het toewijzen van natuurlijke personen aan instellingen voor onderwijs en beroepsonderwijs op alle niveaus? + nextQuestionId: "2.5" +- questionId: "2.5" + question: "Is er sprake van een AI-systeem, die specifiek is ontwikkeld en in gebruik is gesteld met wetenschappelijk onderzoek en wetenschappelijke ontwikkeling als enig doel." questionType: SingleChoice + sources: + - source: Artikel 2 + url: https://artificialintelligenceact.eu/article/2/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' - - answer: Nee - nextQuestionId: '5.5' -- questionId: '5.5' - question: Is je AI-systeem bedoeld om te worden gebruikt voor het evalueren van leerresultaten, ook wanneer die resultaten worden gebruikt voor het sturen van het leerproces van natuurlijke personen in instellingen voor onderwijs en beroepsonderwijs op alle niveaus? + labels: + - "uitzonderingsgrond: AI-verordening niet van toepassing" + nextConclusionId: "12.25" + - answer: Nee + subresult: "Er is geen sprake van een uitzonderingsgrond. De AI-verordening is van toepassing." + labels: + - "geen uitzonderingsgrond: AI-verordening van toepassing" + redirects: + - nextQuestionId: "3.0" + if: '"AI-systeem" in labels || "AI-systeem voor algemene doeleinden" in labels' + - nextQuestionId: "6.0" + if: '"AI-model voor algemene doeleinden" in labels' + +### check of het een verboden AI-systeem is +- questionId: "3.0" + question: "We gaan bepalen of je AI-systeem valt onder een van de verboden systemen in artikel 5 van de AI-verordening. Zou je AI-systeem gebruik kunnen gaan maken van subliminale technieken om mensen onbewust of bewust kunnen manipuleren, waardoor ze beslissingen nemen die ze anders niet zouden hebben genomen?" questionType: SingleChoice + sources: + - source: Overweging 29 - gebruik van subliminale componenten en het uitbuiten van kwetsbaarheden van een persoon of specifieke groep + url: https://artificialintelligenceact.eu/recital/29/ + - source: Artikel 5 + url: https://artificialintelligenceact.eu/article/5/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: "Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. Er kan sprake zijn van een uitzondering." + nextQuestionId: "3.1.1" - answer: Nee - nextQuestionId: '5.6' -- questionId: '5.6' - question: Is je AI-systeem bedoeld om te worden gebruikt voor het beoordelen van het passende onderwijsniveau dat een persoon zal ontvangen of waartoe hij toegang zal hebben, in het kader van of binnen instellingen voor onderwijs en beroepsonderwijs op alle niveaus? + nextQuestionId: "3.1" +- questionId: "3.1" + question: "Zou je AI-systeem gebruik kunnen gaan maken van kwetsbaarheden van individuen of specifieke groepen, zoals leeftijd, handicaps of sociale/economische omstandigheden, om het gedrag van die personen aanzienlijk te verstoren, wat kan leiden tot aanzienlijke schade bij henzelf of anderen?" questionType: SingleChoice + sources: + - source: Overweging 29 - gebruik van subliminale componenten en het uitbuiten van kwetsbaarheden van een persoon of specifieke groep + url: https://artificialintelligenceact.eu/recital/29/ + - source: Artikel 5 + url: https://artificialintelligenceact.eu/article/5/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. Er kan sprake zijn van een uitzondering. + nextQuestionId: "3.1.1" - answer: Nee - nextQuestionId: '5.7' -- questionId: '5.7' - question: Is je AI-systeem bedoeld om te worden gebruikt voor het monitoren en detecteren van ongeoorloofd gedrag van studenten tijdens toetsen in de context van of binnen instellingen voor onderwijs en beroepsonderwijs op alle niveaus? + nextQuestionId: "3.2" +- questionId: "3.2" + question: "Zou je AI-systeem gebruikt kunnen worden om natuurlijke personen of groepen gedurende een periode te evalueren of te classificeren op basis van hun sociale gedrag of afgeleide persoonlijke kenmerken? Dit kan leiden tot nadelige behandelingen die niet gerechtvaardigd zijn en geen verband houden met de oorspronkelijke context van de data of met de ernst van het sociale gedrag." questionType: SingleChoice + sources: + - source: Overweging 31 - social scoring + url: https://artificialintelligenceact.eu/recital/31/ + - source: Artikel 5 + url: https://artificialintelligenceact.eu/article/5/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: "Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. Er kan sprake zijn van een uitzondering." + nextQuestionId: "3.1.1" - answer: Nee - nextQuestionId: '5.8' -- questionId: '5.8' - question: Is je AI-systeem bedoeld om te worden gebruikt voor het werven of selecteren van natuurlijke personen, met name voor het plaatsen van gerichte vacatures, het analyseren en filteren van sollicitaties, en het beoordelen van kandidaten? + nextQuestionId: "3.3" +- questionId: "3.3" + question: "Zou je AI-systeem gebruikt kunnen worden voor risicobeoordelingen van natuurlijke personen om het risico op crimineel gedrag te voorspellen, gebaseerd op profilering of persoonlijkheidskenmerken? Dit geldt niet voor AI-systemen die worden gebruikt om menselijke beoordelingen te ondersteunen, gebaseerd op objectieve en verifieerbare feiten die rechtstreeks verband houden met criminele activiteiten." questionType: SingleChoice + sources: + - source: Overweging 42 - profilering of beoordeling van persoonlijkheidskenmerken en kenmerken om crimineel gedrag te voorspellen + url: https://artificialintelligenceact.eu/recital/42/ + - source: Artikel 5 + url: https://artificialintelligenceact.eu/article/5/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: "Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. Er kan sprake zijn van een uitzondering." + nextQuestionId: "3.1.1" - answer: Nee - nextQuestionId: '5.9' -- questionId: '5.9' - question: "Is je AI-systeem bedoeld om te worden gebruikt voor het nemen van besluiten die van invloed zijn op de voorwaarden van arbeidsgerelateerde betrekkingen, de bevordering of be\xEBindiging van arbeidsgerelateerde contractuele betrekkingen, voor het toewijzen van taken op basis van individueel gedrag of persoonlijke eigenschappen of kenmerken, of voor het monitoren en evalueren van prestaties en gedrag van personen in dergelijke betrekkingen?" + nextQuestionId: "3.4" +- questionId: "3.4" + question: "Zou je AI-systeem gebruikt kunnen worden om databanken voor gezichtsherkenning aan te leggen of aan te vullen door willkeurige gezichtsafbeeldingen van internet of CCTV-beelden te scrapen?" questionType: SingleChoice + sources: + - source: Overweging 43 - niet-gerichte scraping van gezichtsopnamen van het internet of CCTV-beelden. + url: https://artificialintelligenceact.eu/recital/43/ + - source: Artikel 5 + url: https://artificialintelligenceact.eu/article/5/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: "Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. Er kan sprake zijn van een uitzondering." + nextQuestionId: "3.1.1" - answer: Nee - nextQuestionId: '5.10' -- questionId: '5.10' - question: "Is je AI-systeem bedoeld om te worden gebruikt om te beoordelen of natuurlijke personen in aanmerking komen voor essenti\xEBle overheidsuitkeringen en -diensten, waaronder gezondheidsdiensten, of om dergelijke uitkeringen en diensten te verlenen, te beperken, in te trekken of terug te vorderen?" + nextQuestionId: "3.5" +- questionId: "3.5" + question: "Zou je AI-systeem gebruikt kunnen worden om emoties van een persoon op de werkplek of in het onderwijs af te leiden? Dit is niet van toepassing als het gebruik van het AI-systeem is bedoeld voor medische- of veiligheidsdoeleinden." questionType: SingleChoice + sources: + - source: Overweging 44 - identificeren of afleiden van emoties of intenties van natuurlijke personen op basis van hun biometrische gegeven in de context van werk of onderwijs + url: https://artificialintelligenceact.eu/recital/44/ + - source: Artikel 5 + url: https://artificialintelligenceact.eu/article/5/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: "Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. Er kan sprake zijn van een uitzondering." + nextQuestionId: "3.1.1" - answer: Nee - nextQuestionId: '5.11' -- questionId: '5.11' - question: "Is je AI-systeem bedoeld om te worden gebruikt voor het beoordelen van de kredietwaardigheid van natuurlijke personen of voor het vaststellen van hun kredietscore, met uitzondering van AI-systemen die gebruikt worden om financi\xEBle fraude op te sporen?" + nextQuestionId: "3.6" +- questionId: "3.6" + question: "Zou je AI-systeem gebruikt kunnen worden om natuurlijke personen individueel in categorie\xEBn in te delen op basis van biometrische gegevens om ras, politieke opvattingen, lidmaatschap van een vakbond, religieuze of levensbeschouwelijke overtuigingen, seksleven of seksuele geaardheid af te leiden? Dit verbod geldt niet voor het labelsen of filteren van rechtmatig verkregen biometrische datasets, zoals afbeeldingen, op basis van biometrische gegevens, of voor categorisering van biometrische gegevens op het gebied van rechtshandhaving." questionType: SingleChoice + sources: + - source: Overweging 32 - Biometrische identifcatie op afstand in real time van natuurlijke personen in openbare ruimten voor rechthandhavingsdoeleinden + url: https://artificialintelligenceact.eu/recital/32/ + - source: Artikel 5 + url: https://artificialintelligenceact.eu/article/5/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: "Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. Er kan sprake zijn van een uitzondering." + nextQuestionId: "3.1.1" - answer: Nee - nextQuestionId: '5.12' -- questionId: '5.12' - question: Is je AI-systeem bedoeld om te worden gebruikt voor risicobeoordeling en prijsstelling met betrekking tot natuurlijke personen in het geval van levens- en ziektekostenverzekeringen? + nextQuestionId: "3.7" +- questionId: "3.7" + question: "Zou je AI-systeem gebruikt kunnen worden als een biometrisch systeem in de publieke ruimte voor identificatie op afstand in real-time, met het oog op de rechtshandhaving?" questionType: SingleChoice + sources: + - source: Overweging 32 - Biometrische identifcatie op afstand in real time van natuurlijke personen in openbare ruimten voor rechthandhavingsdoeleinden + url: https://artificialintelligenceact.eu/recital/32/ + - source: Artikel 5 + url: https://artificialintelligenceact.eu/article/5/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: "Deze type AI-systemen zijn in principe verboden volgens de AI-verordening. Er kan sprake zijn van een uitzondering." + nextQuestionId: "3.1.1." - answer: Nee - nextQuestionId: '5.13' -- questionId: '5.13' - question: "Is je AI-systeem bedoeld om noodoproepen van natuurlijke personen te evalueren en te classificeren of om te worden gebruikt voor het inzetten of het bepalen van prioriteiten voor de inzet van hulpdiensten, onder meer van politie, brandweer en ambulance, alsook van systemen voor de triage van pati\xEBnten die dringend medische zorg behoeven?" - questionType: SingleChoice + subresult: "Het AI-systeem is niet verboden. We gaan nu bepalen of er sprake is van een hoog-risico AI-systeem." + labels: + - "niet-verboden AI" + nextQuestionId: "4.0" + +### check of er een uitzondering geldt voor het verboden AI-systeem +- questionId: "3.1.1" + question: "Is er sprake van een van deze uitzonderingen?: + * Er is sprake van een rechtshandhavingsactiviteit i.v.m. een specifiek misdrijf (terrorisme, mensenhandel, seksuele uitbuiting van kinderen en materiaal over seksueel misbruik van kinderen, illegale handel in verdovende middelen en psychotrope stoffen, illegale handel in wapens, munitie en explosieven, moord, zware mishandeling, illegale handel in menselijke organen en weefsels, illegale handel in nucleaire en radioactieve stoffen, ontvoering, wederrechtelijke vrijheidsberoving en gijzeling, misdrijven die onder de rechtsmacht van het Internationaal Strafhof vallen, kaping van vliegtuigen/schepen, verkrachting, milieucriminaliteit, georganiseerde of gewapende diefstal, sabotage, deelneming aan een criminale organisatie die betrokken is bij een of meer van de bovengenoemde misdrijven) + * Er is sprake van gerichte opsporing van specifieke slachtoffers, ontvoering, mensenhandel en seksuele uitbuiting van mensen, vermiste personen; of het voorkomen van bedreigingen voor het leven of de fysieke veiligheid van personen of het reageren op de huidige of voorzienbare dreiging van een terreuraanslag" + questionType: SingleChoice + sources: + - source: Overweging 33 - Uitzondering verboden AI-systeem + url: https://artificialintelligenceact.eu/recital/33/ + - source: Overweging 34 - Uitzondering verboden AI-systeem + url: https://artificialintelligenceact.eu/recital/34/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' - - answer: Nee - nextQuestionId: '5.14' -- questionId: '5.14' - question: Is je AI-systeem bedoeld om door of namens rechtshandhavingsinstanties, of door instellingen, organen of instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties of namens hen, te worden gebruikt om het risico te beoordelen dat een natuurlijke persoon het slachtoffer wordt van strafbare feiten? - questionType: SingleChoice + subresult: "Er is sprake van een uitzondering op de lijst van verboden AI-systemen." + labels: + - "uitzondering verboden AI" + nextQuestionId: "12.0" + - answer: Nee + labels: + - "verboden AI" + nextConclusionId: "12.26" + +### check op hoog risico AI Act (bijlage I Sectie B) +- questionId: "4.0" + question: "Is er sprake van een veiligheidscomponent als bedoeld in Bijlage I Sectie B van de AI-verordening?: + * Verordening (EG) nr. 300/2008 inzake gemeenschappelijke regels op het gebied van de beveiliging van de burgerluchtvaart + * Verordening (EU) nr. 168/2013 betreffende de goedkeuring van en het markttoezicht op twee- of driewielige voertuigen en vierwielers + * Verordening (EU) nr. 167/2013 inzake de goedkeuring van en het markttoezicht op landbouw- en bosvoertuigen + * Richtlijn 2014/90/EU inzake uitrusting van zeeschepen + * Richtlijn 2016/797 betreffende de interoperabiliteit van het spoorwegsysteem in de Europese Unie + * Verordening 2018/858 betreffende de goedkeuring van en het markttoezicht op motorvoertuigen en aanhangwagens daarvan en systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd + * Verordening (EU) 2019/2144 betreffende de voorschriften voor de typegoedkeuring van motorvoertuigen en aanhangwagens daarvan en van systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd wat de algemene veiligheid ervan en de bescherming van de inzittenden van voertuigen en kwetsbare weggebruikers betreft + * Verordening (EU) 2018/1139 inzake gemeenschappelijke regels op het gebied van burgerluchtvaart en tot oprichting van een Agentschap van de Europese Unie voor de veiligheid van de luchtvaart, voor zover het gaat om het ontwerp, de productie en het in de handel brengen van luchtvaartuigen, en hun motoren, propellors, onderdelen en apparatuur om het luchtvaartuig op afstand te besturen" + questionType: SingleChoice + sources: + - source: Overweging 47 - Veiligheidscomponent + url: https://artificialintelligenceact.eu/recital/47/ + - source: Overweging 49 - Veiligheidscomponent + url: https://artificialintelligenceact.eu/recital/47/ + - source: Bijlage 1 + url: https://artificialintelligenceact.eu/annex/1/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: "Het AI-systeem wordt beschouwd als een hoog-risico AI systeem en moet voldoen aan bepaalde verplichtingen/vereisten. Bij de volgende vragen gaan we bepalen van welke entiteit/rol sprake is om erachter te komen welke vereisten van toepassing zijn." + labels: + - "hoog-risico AI" + nextQuestionId: "8.0" - answer: Nee - nextQuestionId: '5.15' -- questionId: '5.15' - question: Is je AI-systeem bedoeld om door of namens rechtshandhavingsinstanties of door instellingen, organen of instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties te worden gebruikt als leugendetector of soortgelijke instrumenten? - questionType: SingleChoice + nextQuestionId: "4.1" + +### check op hoog risico AI Act (bijlage I Sectie A) +- questionId: "4.1" + question: "Is er sprake van een veiligheidscomponent als bedoeld in Bijlage I sectie A van de AI-verordening?: + * Richtlijn 2006/42/EG betreffende machines + * Richtlijn 2009/48/EG betreffende de veiligheid van speelgoed + * Richtlijn 2013/53/EU betreffende pleziervaartuigen en waterscooters + * Richtlijn 2014/33/EU betreffende de harmonisatie van de wetgevingen van de lidstaten inzake liften en veligheidscomponenten voor liften + * Richtlijn 2014/43/EU betreffende de harmonisatie van de wetgevingen van de lidstaten inzake apparaten en beveiligingssystemen bedoeld voor gebruik op plaatsen waar ontploffingsgevaar kan heersen + * Richtlijn 2014/53/EU betreffende de harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van radioapparatuur + * Richtlijn 2014/68/EU betreffende de harmonisatie van wetgevingen van de lidstaten inzake het op de markt aanbieden van drukapparatuur + * Verordening 2016/424 betreffende kabelbaaninstallaties + * Verordening (EU) 2016/425 betreffende persoonlijke beschermingsmiddelen + * Verordening (EU) 2016/426 betreffende gasverbrandingstoestellen + * Verordening (EU) 2017/745 betreffende medische hulpmiddelen + * Verordening (EU) 2017/746 betreffende medische hulpmiddelen voor in-vitrodiagnostiek" + questionType: SingleChoice + sources: + - source: Overweging 47 - Veiligheidscomponent + url: https://artificialintelligenceact.eu/recital/47/ + - source: Overweging 51 - Veiligheidscomponent + url: https://artificialintelligenceact.eu/recital/51/ + - source: Bijlage 1 + url: https://artificialintelligenceact.eu/annex/1/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + nextQuestionId: "4.2" - answer: Nee - nextQuestionId: '5.16' -- questionId: '5.16' - question: Is je AI-systeem bedoeld om door of namens rechtshandhavingsinstanties of door instellingen, organen of instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties te worden gebruikt om de betrouwbaarheid van bewijsmateriaal tijdens het onderzoek naar of de vervolging van strafbare feiten te beoordelen? + nextQuestionId: "5.0" +- questionId: "4.2" + question: "Moet het product waarvan het AI-systeem de veiligheidscomponent vormt een conformiteits-beoordeling door een derde partij laten uitgevoeren met het oog op het in de handel brengen of in gebruik stellen van dat product op grond van de in bijlage I sectie A opgenomen harmonisatiewetgeving van de Unie?" questionType: SingleChoice + sources: + - source: Overweging 50 - Conformiteitsbeoordelingsprocedure + url: https://artificialintelligenceact.eu/recital/50/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: Het AI-systeem wordt beschouwd als een hoog-risico AI systeem en moet voldoen aan bepaalde verplichtingen/vereisten. Bij de volgende vragen gaan we bepalen van welke entiteit/rol sprake is om erachter te komen welke vereisten van toepassing zijn. + labels: + - "hoog-risico AI" + nextQuestionId: "8.0" - answer: Nee - nextQuestionId: '5.17' -- questionId: '5.17' - question: Is je AI-systeem bedoeld om door of namens rechtshandhavingsinstanties of door instellingen, organen of instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties te worden gebruikt om te beoordelen hoe groot het risico is dat een natuurlijke persoon (opnieuw) een strafbaar feit zal plegen, niet uitsluitend op basis van profilering van natuurlijke personen als bedoeld in artikel 3, punt 4, van Richtlijn (EU) 2016/680, of om persoonlijkheidskenmerken en eigenschappen of eerder crimineel gedrag van natuurlijke personen of groepen te beoordelen? - questionType: SingleChoice + nextQuestionId: "5.0" + +### check op hoog risico AI Act (Bijlage III) +- questionId: "5.0" + question: " Is je AI-systeem bedoeld voor een van de volgende doeleinden? + * Biometrische identificatie op afstand + * Biometrische categorisering op basis van gevoelige of beschermde eigenschappen of kenmerken, of op basis van wat uit die eigenschappen of kenmerken wordt afgeleid + * Biometrisch systeem voor emotieherkenning " + questionType: SingleChoice + sources: + - source: Overweging 54 - Biometrische identificatie op afstand + url: https://artificialintelligenceact.eu/recital/54/ + - source: Bijlage 3 + url: https://artificialintelligenceact.eu/annex/3/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: "Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Er kan sprake zijn van een uitzondering." + nextQuestionId: "5.1.0" - answer: Nee - nextQuestionId: '5.18' -- questionId: '5.18' - question: Is je AI-systeem bedoeld om door of namens rechtshandhavingsinstanties of door instellingen, organen en instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties te worden gebruikt om natuurlijke personen te profileren als bedoeld in artikel 3, punt 4, van Richtlijn (EU) 2016/680, tijdens het opsporen, onderzoeken of vervolgen van strafbare feiten? + nextQuestionId: "5.1" +- questionId: "5.1" + question: "Is je AI-systeem bedoeld voor een van de volgende doeleinden? + * Veiligheidscomponent bij het beheer of de exploitatie van kritieke digitale infrastructuur, wegverkeer of bij de levering van water, gas, verwarming en elektriciteit" questionType: SingleChoice + sources: + - source: Overweging 55 - Veiligheidscomponent bij het beheer en de excploitatie van kritieke digitale infrastructuur + url: https://artificialintelligenceact.eu/recital/55/ + - source: Bijlage 3 + url: https://artificialintelligenceact.eu/annex/3/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' - - answer: Nee - nextQuestionId: '5.19' -- questionId: '5.19' - question: Is je AI-systeem bedoeld om door of namens bevoegde overheidsinstanties of door instellingen, organen of instanties van de Unie te worden gebruikt als leugendetector of soortgelijke hulpmiddelen? - questionType: SingleChoice + subresult: "Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Er kan sprake zijn van een uitzondering." + nextQuestionId: "5.1.0" + - answer: Nee + nextQuestionId: "5.2" +- questionId: "5.2" + question: "Is je AI-systeem bedoeld voor een van de volgende doeleinden? + * Het bepalen van toegang of toelating tot of het toewijzen van natuurlijke personen aan instellingen voor onderwijs en beroepsonderwijs op alle niveaus + * Het evalueren van leerresultaten, ook wanneer die resultaten worden gebruikt voor het sturen van het leerproces van natuurlijke personen in instellingen voor onderwijs en beroepsonderwijs op alle niveaus + * Het beoordelen van het passende onderwijsniveau dat een persoon zal ontvangen of waartoe hij toegang zal hebben, in het kader van of binnen instellingen voor onderwijs en beroepsonderwijs op alle niveaus + * Het monitoren en detecteren van ongeoorloofd gedrag van studenten tijdens toetsen in de context van of binnen instellingen voor onderwijs en beroepsonderwijs op alle niveaus" + questionType: SingleChoice + sources: + - source: Overweging 56 - AI-systemen die worden gebruikt voor het bepalen van toegang of toelating, voor het evalueren van leerresultaten en voor beoordeling van een passend niveau + url: https://artificialintelligenceact.eu/recital/56/ + - source: Bijlage 3 + url: https://artificialintelligenceact.eu/annex/3/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: "Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Er kan sprake zijn van een uitzondering." + nextQuestionId: "5.1.0" - answer: Nee - nextQuestionId: '5.20' -- questionId: '5.20' - question: "Is je AI-systeem bedoeld om door of namens bevoegde overheidsinstanties of door instellingen, organen of instanties van de Unie te worden gebruikt om risico\u2019s te beoordelen, waaronder een veiligheidsrisico, een risico op illegale migratie of een gezondheidsrisico, uitgaat van een natuurlijke persoon die voornemens is het grondgebied van een lidstaat te betreden of dat heeft gedaan?" + nextQuestionId: "5.3" +- questionId: "5.3" + question: "Is je AI-systeem bedoeld voor een van de volgende doeleinden? + * Het werven of selecteren van natuurlijke personen, met name voor het plaatsen van gerichte vacatures, het analyseren en filteren van sollicitaties, en het beoordelen van kandidaten? + * Het nemen van besluiten die van invloed zijn op de voorwaarden van arbeidsgerelateerde betrekkingen, de bevordering of be\xEBindiging van arbeidsgerelateerde contractuele betrekkingen, voor het toewijzen van taken op basis van individueel gedrag of persoonlijke eigenschappen of kenmerken, of voor het monitoren en evalueren van prestaties en gedrag van personen in dergelijke betrekkingen" questionType: SingleChoice + sources: + - source: Overweging 57 - AI-systemen die worden gebruikt op het gebied van werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid + url: https://artificialintelligenceact.eu/recital/57/ + - source: Bijlage 3 + url: https://artificialintelligenceact.eu/annex/3/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' - - answer: Nee - nextQuestionId: '5.21' -- questionId: '5.21' - question: Is je AI-systeem bedoeld om door of namens bevoegde overheidsinstanties of door instellingen, organen of instanties van de Unie te worden gebruikt om bevoegde overheidsinstanties bij te staan bij de behandeling van aanvragen voor asiel, visa of verblijfsvergunningen en bij de behandeling van aanverwante klachten in verband met het al dan niet in aanmerking komen van de natuurlijke personen die een aanvraag voor een status indienen, met inbegrip van hieraan gerelateerde beoordelingen van de betrouwbaarheid van bewijsmateriaal? - questionType: SingleChoice + subresult: "Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Er kan sprake zijn van een uitzondering." + nextQuestionId: "5.1.0" + - answer: Nee + nextQuestionId: "5.4" +- questionId: "5.4" + question: "Is je AI-systeem bedoeld voor een van de volgende doeleinden? + * Het beoordelen of natuurlijke personen in aanmerking komen voor essenti\xEBle overheidsuitkeringen en -diensten, waaronder gezondheidsdiensten, of om dergelijke uitkeringen en diensten te verlenen, te beperken, in te trekken of terug te vorderen? + * Het beoordelen van de kredietwaardigheid van natuurlijke personen of voor het vaststellen van hun kredietscore, met uitzondering van AI-systemen die gebruikt worden om financi\xEBle fraude op te sporen + * Risicobeoordeling en prijsstelling met betrekking tot natuurlijke personen in het geval van levens- en ziektekostenverzekeringen + * Het evalueren en classificeren van noodoproepen van natuurlijke personen of het inzetten of het bepalen van prioriteiten voor de inzet van hulpdiensten, onder meer van politie, brandweer en ambulance, alsook van systemen voor de triage van pati\xEBnten die dringend medische zorg behoeven" + questionType: SingleChoice + sources: + - source: Overweging 58 - Gebruik van AI-systemen bij toegang tot en gebruik van bepaalde essentiële particuliere en openbare diensten + url: https://artificialintelligenceact.eu/recital/58/ + - source: Bijlage 3 + url: https://artificialintelligenceact.eu/annex/3/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' - - answer: Nee - nextQuestionId: '5.22' -- questionId: '5.22' - question: Is je AI-systeem bedoeld om door of namens bevoegde overheidsinstanties, of door instellingen, organen of instanties van de Unie, te worden gebruikt in het kader van migratie-, asiel- of grenstoezichtsbeheer, met het oog op het opsporen, herkennen of identificeren van natuurlijke personen, met uitzondering van de verificatie van reisdocumenten? - questionType: SingleChoice + subresult: "Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Er kan sprake zijn van een uitzondering." + nextQuestionId: "5.1.0" + - answer: Nee + nextQuestionId: "5.5" +- questionId: "5.5" + question: "Is je AI-systeem bedoeld voor een van de volgende doeleinden? + * Om door of namens rechtshandhavingsinstanties, of door instellingen, organen of instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties of namens hen, te worden gebruikt om het risico te beoordelen dat een natuurlijke persoon het slachtoffer wordt van strafbare feiten + * Om door of namens rechtshandhavingsinstanties of door instellingen, organen of instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties te worden gebruikt als leugendetector of soortgelijke instrumenten + * Om door of namens rechtshandhavingsinstanties of door instellingen, organen of instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties te worden gebruikt om de betrouwbaarheid van bewijsmateriaal tijdens het onderzoek naar of de vervolging van strafbare feiten te beoordelen + * Om door of namens rechtshandhavingsinstanties of door instellingen, organen of instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties te worden gebruikt om te beoordelen hoe groot het risico is dat een natuurlijke persoon (opnieuw) een strafbaar feit zal plegen, niet uitsluitend op basis van profilering van natuurlijke personen als bedoeld in artikel 3, punt 4, van Richtlijn (EU) 2016/680, of om persoonlijkheidskenmerken en eigenschappen of eerder crimineel gedrag van natuurlijke personen of groepen te beoordelen + * Om door of namens rechtshandhavingsinstanties of door instellingen, organen en instanties van de Unie ter ondersteuning van rechtshandhavingsinstanties te worden gebruikt om natuurlijke personen te profileren als bedoeld in artikel 3, punt 4, van Richtlijn (EU) 2016/680, tijdens het opsporen, onderzoeken of vervolgen van strafbare feiten? + * Om door of namens bevoegde overheidsinstanties of door instellingen, organen of instanties van de Unie te worden gebruikt als leugendetector of soortgelijke hulpmiddelen?" + questionType: SingleChoice + sources: + - source: Overweging 59 - AI-systemen namens rechtshandhavingsinstanties of instellingen, organen of instanties van de Unie + url: https://artificialintelligenceact.eu/recital/59/ + - source: Bijlage 3 + url: https://artificialintelligenceact.eu/annex/3/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' - - answer: Nee - nextQuestionId: '5.23' -- questionId: '5.23' - question: Is je AI-systeem bedoeld om door of namens een gerechtelijke instantie te worden gebruikt om een gerechtelijke instantie te ondersteunen bij het onderzoeken en uitleggen van feiten of de wet en bij de toepassing van het recht op een concrete reeks feiten of om te worden gebruikt op soortgelijke wijze in het kader van alternatieve geschillenbeslechting? - questionType: SingleChoice + subresult: "Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Er kan sprake zijn van een uitzondering." + nextQuestionId: "5.1.0" + - answer: Nee + nextQuestionId: "5.6" +- questionId: "5.6" + question: "Is je AI-systeem bedoeld voor een van de volgende doeleinden? + * Om door of namens bevoegde overheidsinstanties of door instellingen, organen of instanties van de Unie te worden gebruikt om risico\u2019s te beoordelen, waaronder een veiligheidsrisico, een risico op illegale migratie of een gezondheidsrisico, uitgaat van een natuurlijke persoon die voornemens is het grondgebied van een lidstaat te betreden of dat heeft gedaan + * Om door of namens bevoegde overheidsinstanties of door instellingen, organen of instanties van de Unie te worden gebruikt om bevoegde overheidsinstanties bij te staan bij de behandeling van aanvragen voor asiel, visa of verblijfsvergunningen en bij de behandeling van aanverwante klachten in verband met het al dan niet in aanmerking komen van de natuurlijke personen die een aanvraag voor een status indienen, met inbegrip van hieraan gerelateerde beoordelingen van de betrouwbaarheid van bewijsmateriaal + * Om door of namens bevoegde overheidsinstanties, of door instellingen, organen of instanties van de Unie, te worden gebruikt in het kader van migratie-, asiel- of grenstoezichtsbeheer, met het oog op het opsporen, herkennen of identificeren van natuurlijke personen, met uitzondering van de verificatie van reisdocumenten" + questionType: SingleChoice + sources: + - source: Overweging 60 - AI-systemen die worden gebruikt op het gebied van migratie, asiel en grenstoezichtsbeheer + url: https://artificialintelligenceact.eu/recital/60/ + - source: Bijlage 3 + url: https://artificialintelligenceact.eu/annex/3/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' + subresult: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Er kan sprake zijn van een uitzondering. + nextQuestionId: "5.1.0" - answer: Nee - nextQuestionId: '5.24' -- questionId: '5.24' - question: "Is je AI-systeem bedoeld voor het be\xEFnvloeden van de uitslag van een verkiezing of referendum of van het stemgedrag van natuurlijke personen bij de uitoefening van hun stemrecht bij verkiezingen of referenda? Dit geldt niet voor AI-systemen aan de output waarvan natuurlijke personen niet rechtstreeks worden blootgesteld, zoals instrumenten die worden gebruikt om politieke campagnes te organiseren, te optimaliseren of te structureren vanuit administratief of logistiek oogpunt." + nextQuestionId: "5.7" +- questionId: "5.7" + question: "Is je AI-systeem bedoeld voor een van de volgende doeleinden? + * Om door of namens een gerechtelijke instantie te worden gebruikt om een gerechtelijke instantie te ondersteunen bij het onderzoeken en uitleggen van feiten of de wet en bij de toepassing van het recht op een concrete reeks feiten of om te worden gebruikt op soortgelijke wijze in het kader van alternatieve geschillenbeslechting? + * Het be\xEFnvloeden van de uitslag van een verkiezing of referendum of van het stemgedrag van natuurlijke personen bij de uitoefening van hun stemrecht bij verkiezingen of referenda? Dit geldt niet voor AI-systemen aan de output waarvan natuurlijke personen niet rechtstreeks worden blootgesteld, zoals instrumenten die worden gebruikt om politieke campagnes te organiseren, te optimaliseren of te structureren vanuit administratief of logistiek oogpunt" questionType: SingleChoice + sources: + - source: Overweging 61 - AI-systemen bedoeld voor rechtsbedeling en democratische processen + url: https://artificialintelligenceact.eu/recital/61/ + - source: Bijlage 3 + url: https://artificialintelligenceact.eu/annex/3/ answers: - answer: Ja - answerComment: Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Het zou dan moeten voldoen aan bepaalde vereisten, afhankelijk van welke rol je hebt. Dit gaan we nu bepalen. - nextQuestionId: '5.24.0' - - answer: Nee - answerComment: Het blijkt dat je AI-systeem niet verboden is en geen hoog risico AI-systeem is. Het kan echter zijn dat het wel aan bepaalde transparantieverplichtingen moet voldoen ([link naar art. 50 transparantieverplichtingen]).\nWe gaan nu eerst bepalen wat voor rol je hebt. - nextQuestionId: '8.0' + subresult: "Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem als het een significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen inhoudt. Er kan sprake zijn van een uitzondering." + nextQuestionId: "5.1.0" + - answer: Nee + subresult: "Het blijkt dat je AI-systeem niet verboden is en geen hoog risico AI-systeem is. Het kan echter zijn dat het wel aan bepaalde transparantieverplichtingen moet voldoen." + labels: + - "geen hoog-risico AI" + redirects: + - nextQuestionId: "6.0" + if: '"AI-systeem voor algemene doeleinden" in labels' + - nextQuestionId: "7.0" + if: '"geen open-source" in labels && "AI-systeem" in labels' + - nextQuestionId: "8.0" + if: '"open-source" in labels && "AI-systeem" in labels' -### check rol hoog risico AI - toepassingsgebieden -- questionId: '5.24.0' - question: "Ga je een AI-systeem of een AI-model op de markt brengen of in gebruik stellen onder eigen naam of merk, al dan niet tegen betaling?\nOf ben je een aanbieder van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, waarin een AI-model is ge\xEFntegreerd, ongeacht of het AI-model door hemzelf wordt verstrekt en verticaal ge\xEFntegreerd is of door een andere entiteit wordt aangeboden op basis van contractuele betrekkingen?" - questionType: SingleChoice +### check op uitzonderingen hoog risico EU AI Act (bijlage III - toepassingsgebieden) +- questionId: "5.1.0" + question: "Is het AI-systeem bedoeld om + * Een beperkte procedurele taak uit te voeren en is er geen significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen? + * Het resultaat van een eerder voltooide menselijke activiteit te verbeteren en bevat het systeem geen significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen? + * Besluitvormingspatronen of afwijkingen van eerdere besluitvormingspatronen op te sporen en is het niet bedoeld om de eerder voltooide menselijke beoordeling zonder behoorlijke menselijke toetsing te vervangen of te be\xEFnvloeden? + * Een voorbereidende taak uit te voeren voor een beoordeling die relevant is voor de in bijlage III vermelde gebruiksgevallen?" + questionType: SingleChoice + sources: + - source: Overweging 53 - Uitzonderingen hoog risico + url: https://artificialintelligenceact.eu/recital/53/ answers: - answer: Ja - answerComment: "Dan ben je een aanbieder volgens de AI verordening.\nJe bent een hoog risico AI systeem aan het ontwikkelen en je moet voldoen aan bepaalde vereisten van de AI-verordening (o.a. artikelen 4, 6, 9 t/m 21, 25, 40, 43, 47 t/m 50, 52, 60, 61, 72, 73). Ga door naar de volgende vragen om te bepalen of je hoog risico AI-systeem valt onder één van de uitzonderingen" - nextQuestionId: '5.24.0.0' + nextQuestionId: "5.1.1" - answer: Nee - answerComment: "Je bent geen aanbieder. We gaan kijken of je mogelijk een andere rol hebt" - nextQuestionId: '5.24.1' -- questionId: '5.24.1' - question: "Ben je een overheidsinstantie die een AI-systeem onder eigen verantwoordelijkheid gebruikt? Het AI-systeem wordt niet gebruikt in het kader van een persoonlijke niet-beroepsactiviteit" + subresult: "Je systeem valt niet onder een van de uitzonderingen. Het blijft beschouwd als een hoog risico AI systeem." + labels: + - "hoog-risico AI" + nextQuestionId: "8.0" +- questionId: "5.1.1" + question: "Voert het AI-systeem profilering van natuurlijke personen uit? Bij profilering is er altijd sprake van een hoog risico." questionType: SingleChoice + sources: + - source: Overweging 53 - Uitzonderingen hoog risico + url: https://artificialintelligenceact.eu/recital/53/ answers: - answer: Ja - answerComment: "Dan ben je een gebruiksverantwoordelijke volgens de AI verordening.\nJe bent verantwoordelijk voor het gebruik van een hoog risico AI systeem en je moet voldoen aan bepaalde vereisten van de AI-verordening (o.a. artikelen 12, 25 t/m 27, 49, 50, 86). Let op! Er zijn omstandigheden waaronder je als gebruiksverantwoordelijke beschouwd wordt als een aanbieder van een AI-systeem met een hoog risico. We gaan nu vaststellen of dat het geval is." - nextQuestionId: '5.24.2' - - answer: Nee - result: "Je bent geen gebruiksverantwoordelijke en geen aanbieder. Deze beslisboom is gemaakt voor alleen deze twee rollen. Controleer nog een keer goed of één van deze rollen misschien toch op jou van toepassing is." # Bak G: hoog risico AI - toepassingsgebieden - geen aanbieder - geen gebruiksverantwoordelijke -##### check of je wordt beschouwd als aanbieder -- questionId: '5.24.2' - question: "Zet je jouw naam of merk op een AI-systeem met een hoog risico dat reeds in de handel is gebracht of in gebruik is gesteld, onverminderd contractuele regelingen waarin wordt bepaald dat de verplichtingen anders worden toegewezen" - questionType: SingleChoice - answers: - - answer: Ja - result: "Dan word je naast gebruiksverantwoordelijke ook beschouwd als een aanbieder van een AI-systeem met een hoog risico en ben je onderworpen aan de verplichtingen van de aanbieder uit hoofde van artikel 16. We raden je daarom aan de beslisboom nog een keer te doorlopen en daarbij aan te geven dat je een aanbieder van een AI-systeem met een hoog risico bent." # Bak H: hoog risico AI - toepassingsgebieden - gebruiksverantwoordelijke en beschouwd als aanbieder - - answer: Nee - nextQuestionId: '5.24.3' -- questionId: '5.24.3' - question: "Breng je een substantiële wijziging aan in een AI-systeem met een hoog risico dat reeds in de handel is gebracht of reeds in gebruik is gesteld op zodanige wijze dat het systeem een AI-systeem met een hoog risico blijft op grond van artikel 6" - questionType: SingleChoice - answers: - - answer: Ja - result: "Dan word je naast gebruiksverantwoordelijke ook beschouwd als een aanbieder van een AI-systeem met een hoog risico en ben je onderworpen aan de verplichtingen van de aanbieder uit hoofde van artikel 16. We raden je daarom aan de beslisboom nog een keer te doorlopen en daarbij aan te geven dat je een aanbieder van een AI-systeem met een hoog risico bent." # Bak H: hoog risico AI - toepassingsgebieden - gebruiksverantwoordelijke en beschouwd als aanbieder - - answer: Nee - nextQuestionId: '5.24.4' -- questionId: '5.24.4' - question: "Wijzig je het beoogde doel van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, dat niet als een systeem met een hoog risico is geclassificeerd en reeds in de handel is gebracht of in gebruik is gesteld, op zodanige wijze dat het betrokken AI-systeem een AI-systeem met een hoog risico overeenkomstig artikel 6 wordt" - questionType: SingleChoice - answers: - - answer: Ja - result: "Dan word je naast gebruiksverantwoordelijke ook beschouwd als een aanbieder van een AI-systeem met een hoog risico en ben je onderworpen aan de verplichtingen van de aanbieder uit hoofde van artikel 16. We raden je daarom aan de beslisboom nog een keer te doorlopen en daarbij aan te geven dat je een aanbieder van een AI-systeem met een hoog risico bent." # Bak H: hoog risico AI - toepassingsgebieden - gebruiksverantwoordelijke en beschouwd als aanbieder - - answer: Nee - result: "Dan word je alleen als gebruiksverantwoordelijke beschouwd en niet als een aanbieder van een AI-systeem met een hoog risico" # Bak I: hoog risico AI - toepassingsgebieden - gebruiksverantwoordelijke - geen aanbieder + subresult: "Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem. Het zou dan moeten voldoen aan bepaalde vereisten." + labels: + - "hoog-risico AI" + nextQuestionId: "8.0" + - answer: Nee + subresult: "Het is mogelijk dat je AI-systeem toch geen hoog-risico systeem is. Het kan echter zijn dat het wel aan bepaalde transparantieverplichtingen moet voldoen." + labels: + - "geen hoog-risico AI" + redirects: + - nextQuestionId: "6.0" + if: '"AI-systeem voor algemene doeleinden" in labels' + - nextQuestionId: "7.0" + if: '"geen open-source" in labels && "AI-systeem" in labels' + - nextQuestionId: "8.0" + if: '"open-source" in labels && "AI-systeem" in labels' -### check uitzonderingen hoog risico - toepassingsgebieden -- questionId: '5.24.0.0' - question: Is het AI-systeem bedoeld om een beperkte procedurele taak uit te voeren en is er geen significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen? - questionType: SingleChoice - answers: - - answer: Ja - nextQuestionId: '5.24.0.0.1' - - answer: Nee - nextQuestionId: '5.24.0.2' -- questionId: '5.24.0.2' - question: Is het AI-systeem bedoeld om het resultaat van een eerder voltooide menselijke activiteit te verbeteren en bevat het systeem geen significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen? - questionType: SingleChoice - answers: - - answer: Ja - nextQuestionId: '5.24.0.0.1' - - answer: Nee - nextQuestionId: '5.24.0.3' -- questionId: '5.24.0.3' - question: "Is het AI-systeem bedoeld om besluitvormingspatronen of afwijkingen van eerdere besluitvormingspatronen op te sporen en is het niet bedoeld om de eerder voltooide menselijke beoordeling zonder behoorlijke menselijke toetsing te vervangen of te be\xEFnvloeden?" - questionType: SingleChoice - answers: - - answer: Ja - nextQuestionId: '5.24.0.0.1' - - answer: Nee - nextQuestionId: '5.24.0.4' -- questionId: '5.24.0.4' - question: Is het AI-systeem bedoeld om een voorbereidende taak uit te voeren voor een beoordeling die relevant is voor de in bijlage III vermelde gebruiksgevallen? - questionType: SingleChoice +### check op systeem risico (alleen voor AI-systemen/modellen voor algemene doeleinden) +- questionId: "6.0" + question: "Is er sprake van een cumulatieve hoeveelheid rekenkracht van FLOPs groter dan 10^25? + * FLOPs zijn floating point operations per second. + * FLOPs is een eenheid die wordt gebruikt om de rekenkracht van CPU\u2019s aan te duiden. + * CPUs zijn Central Processing Units. + * Dit is de centrale verwerkingseenheid van een computer, smartphone of tablet. De CPU voert het rekenwerk uit waardoor programma\u2019s draaien en hardware wordt aangestuurd." + questionType: SingleChoice + sources: + - source: Overweging 110 - Classificatie systeemrisico + url: https://artificialintelligenceact.eu/recital/110/ + - source: Overweging 111 - Classificatie systeemrisico + url: https://artificialintelligenceact.eu/recital/111/ answers: - answer: Ja - nextQuestionId: '5.24.0.0.1' - - answer: Nee - answerComment: "Je systeem valt niet onder de uitzondering en het blijft beschouwd als een hoog risico AI systeem. Het kan echter zijn dat het wel aan bepaalde transparantieverplichtingen moet voldoen ([link naar art. 50 transparantieverplichtingen])" - nextQuestionId: '6.0' -- questionId: '5.24.0.0.1' - question: Voert het AI-systeem profilering van natuurlijke personen uit? - questionType: SingleChoice - answers: - - answer: Nee - answerComment: "Het is mogelijk dat je AI-systeem toch geen hoog-risico systeem is. Het kan echter zijn dat het wel aan bepaalde transparantieverplichtingen moet voldoen ([link naar art. 50 transparantieverplichtingen])" - nextQuestionId: '6.0' # OPM: dit verwijst naar dezelfde vraag? - - answer: Ja - answerComment: "Je AI-systeem wordt waarschijnlijk beschouwd als een hoog-risico AI-systeem. Het zou dan moeten voldoen aan bepaalde vereisten. Het kan echter zijn dat het ook aan bepaalde transparantieverplichtingen moet voldoen ([link naar art. 50 transparantieverplichtingen])" - nextQuestionId: '6.0' # OPM: dit verwijst naar dezelfde vraag? + subresult: "Er is sprake van een systeemrisico. Afhankelijk van de vorige antwoorden gaan we nu checken of er ook sprake is van een transparantierisico, of van welke entiteit sprake is." + labels: + - "systeemrisico" + redirects: + - nextQuestionId: "7.0" + if: '"geen open-source" in labels' + - nextQuestionId: "8.0" + if: '"open-source" in labels' + - answer: Nee + subresult: "Er is geen sprake van een systeemrisico. Afhankelijk van de vorige antwoorden gaan we nu checken of er sprake is van een transparantierisico, of van welke entiteit sprake is." + labels: + - "geen systeemrisico" + redirects: + - nextQuestionId: "7.0" + if: '"geen open-source" in labels' + - nextQuestionId: "8.0" + if: '"open-source" in labels' -### Transparantievereisten aanbieders -- questionId: '6.0' - question: Ontwikkel je AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld? - questionType: SingleChoice +### check op transparantie risico (alleen voor niet-open-source) +- questionId: "7.0" + question: "Is er sprake van: + * AI die direct communiceert met mensen (zoals chatbots)? + * AI die synthetische afbeeldingen, audio, video of tekst content genereert en manipuleert? (ongestructureerde synthetische data) + * AI die doet aan emotieherkenning of biometrische categorisatie?" + questionType: SingleChoice + sources: + - source: Overweging 132 - Transparantieverplichtingen + url: https://artificialintelligenceact.eu/recital/132/ + - source: Overweging 134 - Transparantieverplichtingen + url: https://artificialintelligenceact.eu/recital/134/ answers: - answer: Ja - result: Dan moet je voldoen aan de transparantieverplichtingen van art. 50(1). # Bak + nextQuestionId: "7.1" - answer: Nee - nextQuestionId: '6.1' -- questionId: '6.1' - question: Ontwikkel je AI-systemen, met inbegrip van AI-systemen voor algemene doeleinden die synthetische audio-, beeld-, video- of tekstinhoud genereren? # we zaten toch in niet genAI tak? + labels: + - "geen transparantierisico" + nextQuestionId: "8.0" +- questionId: "7.1" + question: "Is er sprake van AI waarvan het bij wet is toegestaan om te gebruiken om strafbare feiten op te sporen, te voorkomen, te onderzoeken of te vervolgen?" questionType: SingleChoice + sources: + - source: Overweging 135 - Uitzondering transparantierisico + url: https://artificialintelligenceact.eu/recital/135/ answers: - answer: Ja - result: Dan moet je voldoen aan de transparantieverplichtingen van art. 50(2). - - answer: Nee - result: Dan hoef je niet te voldoen aan de transparantieverplichtingen. Houd je wel aan bestaande wet- en regelgeving (bijv. AVG wanneer je persoonsgegevens verwerkt) # moeten we hier nog checken of je moet publiceren in het register? + subresult: "Er is geen sprake van een transparantierisico." + labels: + - "geen transparantierisico" + nextQuestionId: "8.0" + - answer: Nee + subresult: "Er is sprake van een transparantierisico." + labels: + - "transparantierisico" + nextQuestionId: "8.0" -### check rol bij general purpose AI -- questionId: '7.0' +### check op entiteit/rol: aanbieder of gebruiksverantwoordelijke + uiteindelijke doorverwijzing naar verplichtingen +- questionId: "8.0" question: "Ga je een AI-systeem of een AI-model op de markt brengen of in gebruik stellen onder eigen naam of merk, al dan niet tegen betaling?\nOf ben je een aanbieder van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, waarin een AI-model is geïntegreerd, ongeacht of het AI-model door hemzelf wordt verstrekt en verticaal geïntegreerd is of door een andere entiteit wordt aangeboden op basis van contractuele betrekkingen?" questionType: SingleChoice answers: - answer: Ja - answerComment: "Dan ben je een aanbieder volgens de AI verordening.\nJe bent een AI systeem voor algemene doeleinden aan het ontwikkelen en je moet voldoen aan bepaalde vereisten van de AI-verordening (o.a. artikelen 4, 50 t/m 55)" - nextQuestionId: '7.1' - - answer: Nee - answerComment: "Je bent geen aanbieder. We gaan checken of je een andere rol hebt." - nextQuestionId: '7.2' -- questionId: '7.1' - question: "Ben je een aanbieder van een AI-systeem voor algemene doeleinden met een systeemrisico? (Volgens artikel 51 beschikt een AI-systeem met een systeemrisico over capaciteiten met een grote impact die worden geëvalueerd op basis van passende technische instrumenten en methoden, met inbegrip van indicatoren en benchmarks. Daarnaast wordt geacht capaciteiten met een grote impact overeenkomstig lid 1, punt a), te hebben wanneer de cumulatieve hoeveelheid berekeningen die wordt gebruikt om het model te trainen, gemeten in zwevendekommabewerkingen, groter is dan 10^25)" - questionType: SingleChoice - answers: - - answer: Ja - result: "Je AI-systeem moet voldoen aan de vereisten van artikel 55 van de AI-verordening. Let op: het kan zijn dat je ook aan de transparantieverplichtingen van artikel 50 moet voldoen." # Bak N: general purpose AI - aanbieder - systeemrisico - - answer: Nee - result: "Dan ben je een AI systeem voor algemene doeleinden aan het ontwikkelen en je moet voldoen de vereisten van artikel 53. Let op: het kan zijn dat je ook aan de transparantieverplichtingen van artikel 50 moet voldoen." # Bak O: general purpose AI - aanbieder - geen systeemrisico - # moeten we hier nog verder naar vragen voor transparantieverplichtingen? -- questionId: '7.2' - question: "Ben je een overheidsinstantie die een AI-systeem onder eigen verantwoordelijkheid gebruikt? Het AI-systeem wordt niet gebruikt in het kader van een persoonlijke niet-beroepsactiviteit" - questionType: SingleChoice - answers: - - answer: Ja - result: "Dan ben je een gebruiksverantwoordelijke volgens de AI verordening. Als je een AI-systeem voor algemene doeleinden gebruikt dan moet je nog steeds voldoen aan artikel 25, 27, 50, 86." # Bak P: general purpose AI - geen aanbieder - gebruiksverantwoordelijke - - answer: Nee - result: "Je bent geen aanbieder en geen gebruiksverantwoordelijke. Deze beslisboom is gemaakt voor alleen deze twee rollen. Controleer nog een keer goed of één van deze rollen misschien toch op jou van toepassing is." # Bak Q: general purpose AI - geen aanbieder - geen gebruiksverantwoordelijke - -### Transparantieverplichtingen geen hoog risico -- questionId: '8.0' - question: Ga je een AI-systeem of een AI-model op de markt brengen of in gebruik stellen onder eigen naam of merk, al dan niet tegen betaling?\nOf ben je een aanbieder van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, waarin een AI-model is geïntegreerd, ongeacht of het AI-model door hemzelf wordt verstrekt en verticaal geïntegreerd is of door een andere entiteit wordt aangeboden op basis van contractuele betrekkingen? + subresult: "Je bent een aanbieder volgens de AI verordening." + labels: + - "aanbieder" + redirects: + - nextQuestionId: "12.1" + if: '"hoog-risico AI" in labels' + - nextQuestionId: "12.4" + if: '"AI-systeem" in labels && "geen hoog-risico" in labels && "transparantierisico" in labels' + - nextQuestionId: "12.5" + if: '"AI-systeem" in labels && "geen hoog-risico" in labels && "geen transparantierisico" in labels' + - nextQuestionId: "12.8" + if: '"AI-syteem voor algemene doeleinden" in labels && "systeemrisico" in labels && "transparantierisico" in labels' + - nextQuestionId: "12.9" + if: '"AI-systeem voor algemene doeleinden" in labels && "geen systeemrisico" in labels && "geen transparantierisico" in labels' + - nextQuestionId: "12.10" + if: '"AI-systeem voor algemene doeleinden" in labels && "systeemrisico" in labels && "geen transparantierisico" in labels' + - nextQuestionId: "12.11" + if: '"AI-systeem voor algemene doeleinden" in labels && "geen systeemrisico" in labels && "transparantierisico" in labels' + - nextQuestionId: "12.16" + if: '"AI-model voor algemene doeleinden" in labels && "systeemrisico" in labels && "transparantierisico" in labels' + - nextQuestionId: "12.17" + if: '"AI-model voor algemene doeleinden" in labels && "geen systeemrisico" in labels && "geen transparantierisico" in labels' + - nextQuestionId: "12.18" + if: '"AI-model voor algemene doeleinden" in labels && "systeemrisico" in labels && "geen transparantierisico" in labels' + - nextQuestionId: "12.19" + if: '"AI-model voor algemene doeleinden" in labels && "geen systeemrisico" in labels && "transparantierisico" in labels' + - answer: Nee + subresult: "Je bent geen aanbieder. We gaan kijken of je mogelijk een andere rol hebt." + nextQuestionId: "8.1" +- questionId: "8.1" + question: "Ben je een overheidsinstantie die een AI-systeem onder eigen verantwoordelijkheid gebruikt? (Het AI-systeem wordt niet gebruikt in het kader van een persoonlijke niet-beroepsactiviteit)." + sources: + - source: Overweging 13 - Overheidsinstanties, agentschappen of andere organen als gebruiksverantwoordelijke + url: https://artificialintelligenceact.eu/recital/13/ questionType: SingleChoice answers: - answer: Ja - answerComment: "Dan ben je een aanbieder volgens de AI verordening." - nextQuestionId: '6.0' - - answer: Nee - answerComment: "Je bent geen aanbieder. We gaan kijken of je een andere rol hebt." - nextQuestionId: '8.1' -- questionId: '8.1' - question: Ben je een overheidsinstantie die een AI-systeem onder eigen verantwoordelijkheid gebruikt? Het AI-systeem wordt niet gebruikt in het kader van een persoonlijke niet-beroepsactiviteit + subresult: "Je bent een gebruiksverantwoordelijke volgens de AI verordening." + labels: + - "gebruiksverantwoordelijke" + redirects: + - nextQuestionId: "8.2" + if: '"hoog-risico AI" in labels' + - nextQuestionId: "12.6" + if: '"AI-systeem" in labels && "geen hoog-risico" in labels && "transparantierisico" in labels' + - nextQuestionId: "12.7" + if: '"AI-systeem" in labels && "geen hoog-risico" in labels && "geen transparantierisico" in labels' + - nextQuestionId: "12.12" + if: '"AI-syteem voor algemene doeleinden" in labels && "systeemrisico" in labels && "transparantierisico" in labels' + - nextQuestionId: "12.13" + if: '"AI-systeem voor algemene doeleinden" in labels && "geen systeemrisico" in labels && "geen transparantierisico" in labels' + - nextQuestionId: "12.14" + if: '"AI-systeem voor algemene doeleinden" in labels && "systeemrisico" in labels && "geen transparantierisico" in labels' + - nextQuestionId: "12.15" + if: '"AI-systeem voor algemene doeleinden" in labels && "geen systeemrisico" in labels && "transparantierisico" in labels' + - nextQuestionId: "12.20" + if: '"AI-model voor algemene doeleinden" in labels && "systeemrisico" in labels && "transparantierisico" in labels' + - nextQuestionId: "12.21" + if: '"AI-model voor algemene doeleinden" in labels && "geen systeemrisico" in labels && "geen transparantierisico" in labels' + - nextQuestionId: "12.22" + if: '"AI-model voor algemene doeleinden" in labels && "systeemrisico" in labels && "geen transparantierisico" in labels' + - nextQuestionId: "12.23" + if: '"AI-model voor algemene doeleinden" in labels && "geen systeemrisico" in labels && "transparantierisico" in labels' + - answer: Nee + nextConclusionId: "12.27" +- questionId: "8.2" + question: "Zet je jouw naam of merk op een AI-systeem met een hoog risico dat reeds in de handel is gebracht of in gebruik is gesteld (onverminderd contractuele regelingen waarin wordt bepaald dat de verplichtingen anders worden toegewezen)?" questionType: SingleChoice answers: - answer: Ja - nextQuestionId: '8.2' + subresult: "Naast gebruiksverantwoordelijke ben je ook een aanbieder van een AI-systeem voor algemene doeleinden met een hoog risico. Je moet voldoen aan de verplichtingen van de aanbieder uit hoofde van artikel 16. We raden je daarom aan de beslisboom nog een keer te doorlopen en daarbij aan te geven dat je een aanbieder van een AI-systeem met een hoog risico bent." + labels: + - "aanbieder" + nextQuestionId: "12.2" - answer: Nee - result: "Je bent geen aanbieder en geen gebruiksverantwoordelijke. Deze beslisboom is gemaakt voor alleen deze twee rollen. Controleer nog een keer goed of één van deze rollen misschien toch op jou van toepassing is." # Bak R: niet verboden - niet hoog risico - geen aanbieder - geen gebruiksverantwoordelijke -- questionId: '8.2' - question: Ontwikkel je AI-systemen voor het herkennen van emoties of een systeem voor biometrische categorisering + nextQuestionId: "8.3" +- questionId: "8.3" + question: "Breng je een substantiële wijziging aan in een AI-systeem met een hoog risico dat reeds in de handel is gebracht of reeds in gebruik is gesteld op zodanige wijze dat het systeem een AI-systeem met een hoog risico blijft op grond van artikel 6?" questionType: SingleChoice answers: - answer: Ja - result: Dan moet je voldoen aan de transparantieverplichtingen van art. 50(3). + subresult: "Naast gebruiksverantwoordelijke ben je ook een aanbieder van een AI-systeem voor algemene doeleinden met een hoog risico. Je moet voldoen aan de verplichtingen van de aanbieder uit hoofde van artikel 16. We raden je daarom aan de beslisboom nog een keer te doorlopen en daarbij aan te geven dat je een aanbieder van een AI-systeem met een hoog risico bent." + labels: + - "aanbieder" + nextQuestionId: "12.2" - answer: Nee - nextQuestionId: '8.3' -- questionId: '8.3' - question: Ontwikkel je AI-systemen dat beeld-, audio- of videocontent genereert of die een deepfake vormt bewerkt? - questionType: SingleChoice - answers: - - answer: Ja - result: Dan moet je voldoen aan de transparantieverplichtingen van art. 50(4) - - answer: Nee - nextQuestionId: '8.4' -- questionId: '8.4' - question: Ontwikkel je AI-systemen die tekst genereren of bewerken en die worden gepubliceerd om het publiek te informeren over aangelegenheden van algemeen belang? + nextQuestionId: "8.4" +- questionId: "8.4" + question: "Wijzig je het beoogde doel van een AI-systeem, met inbegrip van een AI-systeem voor algemene doeleinden, dat niet als een systeem met een hoog risico is geclassificeerd en reeds in de handel is gebracht of in gebruik is gesteld, op zodanige wijze dat het betrokken AI-systeem een AI-systeem met een hoog risico overeenkomstig artikel 6 wordt" questionType: SingleChoice answers: - answer: Ja - result: Dan moet je voldoen aan de transparantieverplichtingen van art. 50(4) + subresult: "Naast gebruiksverantwoordelijke ben je ook een aanbieder van een AI-systeem voor algemene doeleinden met een hoog risico. Je moet voldoen aan de verplichtingen van de aanbieder uit hoofde van artikel 16. We raden je daarom aan de beslisboom nog een keer te doorlopen en daarbij aan te geven dat je een aanbieder van een AI-systeem met een hoog risico bent." + labels: + - "aanbieder" + nextQuestionId: "12.2" - answer: Nee - result: Dan hoef je niet te voldoen aan de transparantieverplichtingen. Houd je wel aan bestaande wet- en regelgeving (bijv. AVG wanneer je persoonsgegevens verwerkt) # hier nog checken of je wel moet publiceren in register? + subresult: "Je bent alleen gebruiksverantwoordelijke, geen aanbieder van een AI-systeem voor algemene doeleinden met een hoog risico." + nextQuestionId: "12.3" + +### uiteindelijke resultaten: verplichtingen op grond van voorgaande antwoorden +- conclusionId: "12.0" + conclusion: "Er is sprake van een uitzondering op de verboden lijst voor het open-source AI-systeem." + obligation: + "Art. 5 lid 2: Het gebruik van het systeem voor biometrische identificatie op afstand in real-time in openbare ruimeten wordt alleen toegestaan indien + de rechtshandhavingsinstantie een in art. 27 voorziene effectbeoordeling op het gebied van de grondrechten heeft uitgevoerd en het systeem volgens art. 47 + in de EU-databank heeft geregistreerd. In naar behoren gemotiveerde spoedeisende gevallen kan echter met het gebruik van dergelijke systemen worden begonnen + zonder de systemen in de EU-databank te registreren, op voorwaarde dat die registratie zonder onnodige vertraging wordt voltooid." +- conclusionId: "12.1" + conclusion: "Je bent een aanbieder van een hoog risico (GP)AI-systeem." + obligation: + "Art. 16: + * aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2 + * aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres + * aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met art. 17 (systeem voor kwaliteitsbeheer) + * aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie + * aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben + * aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld + * aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met art. 47 + * aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig art. 48 + * aanbieders leven de registratieverplichtingen als bedoeld in art. 49 lid 1, na + * aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van art. 20 vereiste informatie + * aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2 + * aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882." +- conclusionId: "12.2" + conclusion: + "Je bent aanbieder en gebruiksverantwoordelijke van een hoog risico (GP)AI-systeem." + obligation: + "Art. 16: + * aanbieders zorgen ervoor dat hun AI-systemen met een hoog risico in overeenstemming zijn met de eisen van afdeling 2 + * aanbieders vermelden op het AI-systeem met een hoog risico of, wanneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, naargelang het geval, hun naam, geregistreerde handelsnaam of geregistreerd merk en hun contactadres + * aanbieders beschikken over een systeem voor kwaliteitsbeheer dat in overeenstemming is met art. 17 (systeem voor kwaliteitsbeheer) + * aanbieders bewaren de in artikel 18 (bewaring van documentatie) bedoelde documentatie + * aanbieders bewaren de in artikel 19 bedoelde logs die automatisch door hun AI-systemen met een hoog risico zijn gegenereerd, wanneer zij hierover de controle hebben + * aanbieders zorgen ervoor dat voor het AI-systeem met een hoog risico de desbetreffende in artikel 43 bedoelde conformiteitsbeoordelingsprocedure wordt uitgevoerd voordat dit systeem in de handel wordt gebracht of in gebruik wordt gesteld + * aanbieders stellen een EU-conformiteitsverklaring op, in overeenstemming met art. 47 + * aanbieders brengen de CE-markering aan op het Ai-systeem met een hoog risico of, waneer dit niet mogelijk is, op de verpakking of in de bij het product gevoegde documentatie, om aan te geven dat aan deze verordening is voldaan, overeenkomstig art. 48 + * aanbieders leven de registratieverplichtingen als bedoeld in art. 49 lid 1, na + * aanbieders nemen de noodzakelijke corrigerende maatregelen en verstrekken de uit hoofde van art. 20 vereiste informatie + * aanbieders tonen op een met redenen omkleed verzoek van een nationale bevoegde autoriteit de overeenstemming aan van het AI-systeem met een hoog risico met de eisen van afdeling 2 + * aanbieders zorgen ervoor dat het AI-systeem met een hoog risico voldoet aan de toegankelijkheidseisen overeenkomstig de Richtlijnen (EU) 2016/2102 en (EU) 2019/882. + Als gebruiksverantwoordelijke van een AI-systeem met een hoog risico moet je voldoen aan de verplichtingen van artikel 26 uit de AI-verordening: + * Het nemen van passende technische en organisatorische maatregelen om ervoor te zorgen dat zij dergelijke systemen gebruiken in overeenstemming met de gebruiksinstructies bij de systemen. + * Toezicht houden op de werking van het systeem op basis + * Voorafgaand aan de installatie of het gebruik van het systeem op de werkplek, de werknemersvertegenwoordigers raadplegen om overeenstemming te bereiken overeenkomstig Richtlijn 2002/14/EG en de betrokken werknemers informeren dat het systeem op hen van toepassing zal zijn. + * Samenwerken met de relevante nationale bevoegde autoriteiten bij elke actie die deze autoriteiten ondernemen in verband met het hoog risico systeem om de verordening uit te voeren. + Voor zover je controle uitoefent over het systeem moet je ook: + * Menselijk toezicht implementeren en ervoor zorgen dat de persoon of personen die zijn aangewezen om dit toezicht te garanderen, competent, goed gekwalificeerd en opgeleid zijn en over de nodige middelen beschikken om effectief toezicht te garanderen. + * Ervoor zorgen dat relevante en passende robuustheids- en cyberbeveiligingsmaatregelen regelmatig worden gecontroleerd op effectiviteit en regelmatig worden aangepast of bijgewerkt. + * Ervoor zorgen dat de inputgegevens relevant en voldoende representatief zijn met het oog op het beoogde doel van het AI-systeem met hoog risico. + * Bewaar logbestanden die automatisch door het systeem worden gegenereerd ten minste zes maanden. + Wanneer het systeem beslissingen neemt of helpt bij de besluitvorming met betrekking tot mensen (zoals bij het aannemen van personeel of onderwijs), moet u deze mensen informeren: + * Dat ze onderworpen zijn aan het gebruik van het AI-systeem met hoog risico. + * Over het beoogde doel van het systeem en het soort beslissingen dat het neemt. + * Over hun recht op uitleg. + Als je denkt dat het gebruik van het AI-systeem volgens de instructies de gezondheid, veiligheid of rechten van een persoon kan schaden, moet je: + * Zonder onnodige vertraging de aanbieder of distributeur en de relevante nationale toezichthoudende autoriteiten informeren. + * Het gebruik van het systeem opschorten. + Als je een ernstig incident of een storing hebt vastgesteld, moet je: + * Het gebruik van het AI-systeem onderbreken. + * Onmiddellijk eerst de leverancier en vervolgens de importeur of distributeur en de relevante nationale toezichthoudende autoriteiten op de hoogte stellen. + * Verplichtingen voor AI-systemen met een hoog risico zijn op basis van artikel 6 ook van toepassing op systemen die worden beschouwd als een 'veiligheidscomponent' van het type dat is opgenomen in bijlage I, deel A, en op systemen die worden beschouwd als een 'AI-systeem met hoog risico' volgens bijlage 3. + Deze categorie AI wordt toegelaten mits deze voldoen aan dwingende voorschriften en er vooraf een conformiteitsbeoordeling is uitgevoerd door de aanbieder van AI. Bij een beoordeling wordt er gekeken of de AI voldoet aan de AI Act en wordt er met name gelet op de beheersing van risico en de bescherming van fundamentele rechten. AI die onder deze hoge risico categorie valt dient aan strikte eisen te voldoen voordat het AI-systeem mag worden gebruikt of op de markt mag worden gebracht: + * adequate systemen voor risicobeoordeling en \u2013beperking (art. 9); + * hoge kwaliteit van de datasets die het systeem voeden om risico\u2019s en discriminerende resultaten tot een minimum te beperken (art. 10); + * loggen van activiteiten om de traceerbaarheid van de resultaten te waarborgen (art. 11); + * beschikbaar hebben van gedetailleerde documentatie met informatie over de AI-technologie en het doel ervan voor de autoriteiten om de naleving van de AI-act te boordelen (art. 12); + * duidelijke en adequate informatie aan de eindgebruiker van AI (art. 13) + * passende maatregelen voor menselijke toezicht om risico\u2019s tot een minimum te beperken (art. 14); + * hoge mate van robuustheid, veiligheid en nauwkeurigheid (art. 15). + art. 17 t/m 22 & 27 FRIA" +- conclusionId: "12.3" + conclusion: + "Je bent gebruiksverantwoordelijke van een hoog risico AI-systeem voor algemene doeleinden." + obligation: + "Als gebruiksverantwoordelijke van een AI-systeem met een hoog risico moet je voldoen aan de verplichtingen van artikel 26 uit de AI-verordening: + * Het nemen van passende technische en organisatorische maatregelen om ervoor te zorgen dat zij dergelijke systemen gebruiken in overeenstemming met de gebruiksinstructies bij de systemen. + * Toezicht houden op de werking van het systeem op basis + * Voorafgaand aan de installatie of het gebruik van het systeem op de werkplek, de werknemersvertegenwoordigers raadplegen om overeenstemming te bereiken overeenkomstig Richtlijn 2002/14/EG en de betrokken werknemers informeren dat het systeem op hen van toepassing zal zijn. + * Samenwerken met de relevante nationale bevoegde autoriteiten bij elke actie die deze autoriteiten ondernemen in verband met het hoog risico systeem om de verordening uit te voeren. + Voor zover je controle uitoefent over het systeem moet je ook: + * Menselijk toezicht implementeren en ervoor zorgen dat de persoon of personen die zijn aangewezen om dit toezicht te garanderen, competent, goed gekwalificeerd en opgeleid zijn en over de nodige middelen beschikken om effectief toezicht te garanderen. + * Ervoor zorgen dat relevante en passende robuustheids- en cyberbeveiligingsmaatregelen regelmatig worden gecontroleerd op effectiviteit en regelmatig worden aangepast of bijgewerkt. + * Ervoor zorgen dat de inputgegevens relevant en voldoende representatief zijn met het oog op het beoogde doel van het AI-systeem met hoog risico. + * Bewaar logbestanden die automatisch door het systeem worden gegenereerd ten minste zes maanden. + Wanneer het systeem beslissingen neemt of helpt bij de besluitvorming met betrekking tot mensen (zoals bij het aannemen van personeel of onderwijs), moet u deze mensen informeren: + * Dat ze onderworpen zijn aan het gebruik van het AI-systeem met hoog risico. + * Over het beoogde doel van het systeem en het soort beslissingen dat het neemt. + * Over hun recht op uitleg. + Als je denkt dat het gebruik van het AI-systeem volgens de instructies de gezondheid, veiligheid of rechten van een persoon kan schaden, moet je: + * Zonder onnodige vertraging de aanbieder of distributeur en de relevante nationale toezichthoudende autoriteiten informeren. + * Het gebruik van het systeem opschorten. + Als je een ernstig incident of een storing hebt vastgesteld, moet je: + * Het gebruik van het AI-systeem onderbreken. + * Onmiddellijk eerst de leverancier en vervolgens de importeur of distributeur en de relevante nationale toezichthoudende autoriteiten op de hoogte stellen. + * Verplichtingen voor AI-systemen met een hoog risico zijn op basis van artikel 6 ook van toepassing op systemen die worden beschouwd als een 'veiligheidscomponent' van het type dat is opgenomen in bijlage I, deel A, en op systemen die worden beschouwd als een 'AI-systeem met hoog risico' volgens bijlage 3. + Deze categorie AI wordt toegelaten mits deze voldoen aan dwingende voorschriften en er vooraf een conformiteitsbeoordeling is uitgevoerd door de aanbieder van AI. Bij een beoordeling wordt er gekeken of de AI voldoet aan de AI Act en wordt er met name gelet op de beheersing van risico en de bescherming van fundamentele rechten. AI die onder deze hoge risico categorie valt dient aan strikte eisen te voldoen voordat het AI-systeem mag worden gebruikt of op de markt mag worden gebracht: + * adequate systemen voor risicobeoordeling en \u2013beperking (art. 9); + * hoge kwaliteit van de datasets die het systeem voeden om risico\u2019s en discriminerende resultaten tot een minimum te beperken (art. 10); + * loggen van activiteiten om de traceerbaarheid van de resultaten te waarborgen (art. 11); + * beschikbaar hebben van gedetailleerde documentatie met informatie over de AI-technologie en het doel ervan voor de autoriteiten om de naleving van de AI-act te boordelen (art. 12); + * duidelijke en adequate informatie aan de eindgebruiker van AI (art. 13) + * passende maatregelen voor menselijke toezicht om risico\u2019s tot een minimum te beperken (art. 14); + * hoge mate van robuustheid, veiligheid en nauwkeurigheid (art. 15). + art. 17 t/m 22 & 27 FRIA" +- conclusionId: "12.4" + conclusion: + "Je bent aanbieder van een AI-systeem met transparantierisico." + obligation: + "Art. 50 lid 1 - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld + dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde + en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext. + Art 50 lid 2 - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden + gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel + robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten + en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen." +- conclusionId: "12.5" + conclusion: "Je bent aanbieder van een laag risico AI-systeem." + obligation: + "Er is sprake van een laag risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen valt van de AI-Act. + Doordat deze categorie niet genoemd wordt in de AI-Act, gelden voor dit soort AI-technologie geen bijzondere wettelijke vereisten. + Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden." +- conclusionId: "12.6" + conclusion: + "Je bent gebruiksverantwoordelijke van een AI-systeem met transparantierisico." + obligation: + "Art. 50 lid 3 - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke + personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, + indien van toepassing. + Art. 50 lid 4 - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent gegenereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig + is gegenereerd of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, + fictief of analoof werk of programma, zijn de transparantieverplichtingen van dit lid beperkt tot de openbaarmaking van het bestaan van dergelijk gegenereerde of bewerkte content op een passende wijze + die de weergave of het genot van het werk niet belemmert." +- conclusionId: "12.7" + conclusion: + "Je bent gebruiksverantwoordelijke van een laag risico AI-systeem." + obligation: + "Er is sprake van een laag risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen valt van de AI-Act. + Doordat deze categorie niet genoemd wordt in de AI-Act, gelden voor dit soort AI-technologie geen bijzondere wettelijke vereisten. + Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden." +- conclusionId: "12.8" + conclusion: "Je bent aanbieder van een AI-systeem voor algemene doeleinden met een systeemrisico en een transparantierisico." + obligation: + "Art. 50 lid 1 - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld + dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde + en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext. + Art 50 lid 2 - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden + gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel + robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten + en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen. + Art. 53 lid (1a) - de technische documentatie van het model opstellen en up-to-date houden, inc. het trainings- en testproces en de resultaten van de evaluatie ervan. + Art. 53 lid (1b) - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het GPAI-model in hun AI-systemen willen integreren. + Art. 55 - systeemrisico verplichtingen + * een modelevaluatie uitvoeren + * mogelijke systeemrisico/u2019s op Unieniveau beoordelen en beperken, met inbegriop van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in handel brengen of het gebruik van GPAI-modellen met een systeemrisico. + * relevante informatie over ernstige incidenten en mogelijk corrigerende maatregelen bijhouden, documenteren en onverwijld rapporteren aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten) + * zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het GPAI-model en de fysieke infrastructuur van het model." +- conclusionId: "12.9" + conclusion: "Je bent aanbieder van een laag risico AI-systeem voor algemene doeleinden." + obligation: "Er is sprake van een laag risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen valt van de AI-Act. + Doordat deze categorie niet genoemd wordt in de AI-Act, gelden voor dit soort AI-technologie geen bijzondere wettelijke vereisten. + Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden." +- conclusionId: "12.10" + conclusion: "Je bent aanbieder van een AI-systeem voor algemene doeleinden met een systeemrisico." + obligation: + "Art. 53 lid (1a) - de technische documentatie van het model opstellen en up-to-date houden, inc. het trainings- en testproces en de resultaten van de evaluatie ervan. + Art. 53 lid (1b) - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het GPAI-model in hun AI-systemen willen integreren. + Art. 55 - systeemrisico verplichtingen + * een modelevaluatie uitvoeren + * mogelijke systeemrisico/u2019s op Unieniveau beoordelen en beperken, met inbegriop van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in handel brengen of het gebruik van GPAI-modellen met een systeemrisico. + * relevante informatie over ernstige incidenten en mogelijk corrigerende maatregelen bijhouden, documenteren en onverwijld rapporteren aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten) + * zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het GPAI-model en de fysieke infrastructuur van het model." +- conclusionId: "12.11" + conclusion: "Je bent aanbieder van een AI-systeem voor algemene doeleinden met een transparantierisico." + obligation: + "Art. 50 lid 1 - aanbieders zorgen ervoor dat AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld + dat de betrokken natuurlijke personen worden geinformeerd dat zij interageren met een AI-systeem, tenzij dit duidelijk is vanuit het oogpunt van een normaal geinformeerde + en redelijk omzichtige en oplettende natuurlijke persoon, rekening houdend met de omstandigheden en de gebruikscontext. + Art 50 lid 2 - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden + gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel + robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten + en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen." +- conclusionId: "12.12" + conclusion: "Je bent gebruiksverantwoordelijke van een AI-systeem voor algemene doeleinden met een systeemrisico en een transparantierisico." + obligation: + "Art. 50 - transparantierisico + Art. 50 lid 3 - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke + personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, + indien van toepassing. + Art. 50 lid 4 - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent gegenereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig + is gegenereerd of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, + fictief of analoof werk of programma, zijn de transparantieverplichtingen van dit lid beperkt tot de openbaarmaking van het bestaan van dergelijk gegenereerde of bewerkte content op een passende wijze + die de weergave of het genot van het werk niet belemmert. + Als gebruiksverantwoordelijke heb je geen verplichtingen vanuit het systeemrisico." +- conclusionId: "12.13" + conclusion: "Je bent gebruiksverantwoordelijke van een laag risico AI-systeem voor algemene doeleinden." + obligation: + "Er is sprake van een laag risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen valt van de AI-Act. + Doordat deze categorie niet genoemd wordt in de AI-Act, gelden voor dit soort AI-technologie geen bijzondere wettelijke vereisten. + Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden." +- conclusionId: "12.14" + conclusion: "Je bent gebruiksverantwoordelijke van een AI-systeem voor algemene doeleinden met een systeemrisico." + obligation: + "Als gebruiksverantwoordelijke heb je geen verplichtingen vanuit het systeemrisico." +- conclusionId: "12.15" + conclusion: "Je bent gebruiksverantwoordelijke van een AI-systeem voor algemene doeleinden met een transparantierisico." + obligation: + "Art. 50 lid 3 - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke + personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, + indien van toepassing. + Art. 50 lid 4 - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent gegenereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig + is gegenereerd of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, + fictief of analoof werk of programma, zijn de transparantieverplichtingen van dit lid beperkt tot de openbaarmaking van het bestaan van dergelijk gegenereerde of bewerkte content op een passende wijze + die de weergave of het genot van het werk niet belemmert." +- conclusionId: "12.16" + conclusion: "Je bent aanbieder van een GPAI-model met een systeemrisico en een transparantierisico." + obligation: + "Art 50 lid 2 - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden + gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel + robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten + en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen. + Art. 53 lid (1a) - de technische documentatie van het model opstellen en up-to-date houden, inc. het trainings- en testproces en de resultaten van de evaluatie ervan. + Art. 53 lid (1b) - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het GPAI-model in hun AI-systemen willen integreren. + Art. 55 - systeemrisico verplichtingen + * een modelevaluatie uitvoeren + * mogelijke systeemrisico\u2019s op Unieniveau beoordelen en beperken, met inbegriop van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in handel brengen of het gebruik van GPAI-modellen met een systeemrisico. + * relevante informatie over ernstige incidenten en mogelijk corrigerende maatregelen bijhouden, documenteren en onverwijld rapporteren aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten) + * zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het GPAI-model en de fysieke infrastructuur van het model." +- conclusionId: "12.17" + conclusion: "Je bent aanbieder van een laag risico I-model voor algemene doeleinden." + obligation: + "Er is sprake van een laag risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen valt van de AI-Act. + Doordat deze categorie niet genoemd wordt in de AI-Act, gelden voor dit soort AI-technologie geen bijzondere wettelijke vereisten. + Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden." +- conclusionId: "12.18" + conclusion: "Je bent een aanbieder van een GPAI-model met een systeemrisico." + obligation: + "Art. 53 lid (1a) - de technische documentatie van het model opstellen en up-to-date houden, inc. het trainings- en testproces en de resultaten van de evaluatie ervan. + Art. 53 lid (1b) - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het GPAI-model in hun AI-systemen willen integreren. + Art. 55 - systeemrisico verplichtingen + * een modelevaluatie uitvoeren + * mogelijke systeemrisico\u2019s op Unieniveau beoordelen en beperken, met inbegriop van de bronnen daarvan, die kunnen voortvloeien uit de ontwikkeling, het in handel brengen of het gebruik van GPAI-modellen met een systeemrisico. + * relevante informatie over ernstige incidenten en mogelijk corrigerende maatregelen bijhouden, documenteren en onverwijld rapporteren aan het AI-bureau (en in voorkomende gevallen aan de nationale bevoegde autoriteiten) + * zorgen voor een passend niveau van cyberbeveiligingsbescherming voor het GPAI-model en de fysieke infrastructuur van het model." +- conclusionId: "12.19" + conclusion: "Je bent aanbieder van een GPAI-model met een transparantierisico." + obligation: + "Art 50 lid 2 - aanbieders van (GP)AI-systemen, die synthetische audio, beeld, video- of tekstinhoud genereren, zorgen ervoor dat de outputs van het AI-systeem worden + gemarkeerd in een machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd. Aanbieders zorgen ervoor dat hun technische oplossingen doeltreffend, interoperabel + robuust en betrouwbaar zijn voor zover dat technisch haalbaar is, rekening houdend met de specifieke kenmerken en beperkingen van de verschillende soorten content, de uitvoeringskosten + en de algemeen erkende stand van de techniek, zoals tot uiting kan komen in relevante technische normen. + Art. 53 lid (1a) - de technische documentatie van het model opstellen en up-to-date houden, inc. het trainings- en testproces en de resultaten van de evaluatie ervan. + Art. 53 lid (1b) - informatie en documentatie opstellen, up-to-date houden en beschikbaar stellen voor aanbieders van AI-systemen die het GPAI-model in hun AI-systemen willen integreren." +- conclusionId: "12.20" + conclusion: "Je bent gebruiksverantwoordelijke van een GPAI-model met een systeemrisico en transparantierisico." + obligation: + "Art. 50 lid 3 - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke + personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, + indien van toepassing. + Art. 50 lid 4 - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent gegenereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig + is gegenereerd of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, + fictief of analoof werk of programma, zijn de transparantieverplichtingen van dit lid beperkt tot de openbaarmaking van het bestaan van dergelijk gegenereerde of bewerkte content op een passende wijze + die de weergave of het genot van het werk niet belemmert. + Als gebruiksverantwoordelijke heb je geen verplichtingen vanuit het systeemrisico." +- conclusionId: "12.21" + conclusion: "Je bent gebruiksverantwoordelijke van een laag risico AI-model voor algemene doeleinden." + obligation: + "Er is sprake van een laag risico. Dit betekent dat het AI-systeem niet in de risicovolle categorieen valt van de AI-Act. + Doordat deze categorie niet genoemd wordt in de AI-Act, gelden voor dit soort AI-technologie geen bijzondere wettelijke vereisten. + Wel moet deze AI-technologie uiteraard voldoen aan algemene veiligheidsstandaarden." +- conclusionId: "12.22" + conclusion: "Je bent gebruiksverantwoordelijke van een GPAI-model met een systeemrisico." + obligation: + "Als gebruiksverantwoordelijke heb je geen verplichtingen vanuit het systeemrisico." +- conclusionId: "12.23" + conclusion: "Je bent gebruiksverantwoordelijke van een GPAI-model met een transparantierisico." + obligation: + "Art. 50 lid 3 - gebruiksverantwoordelijken van een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering informeren de daaraan blootgestelde natuurlijke + personen over de werking van het systeem en verwerken de persoonsgegevens in overeenstemming met Verordening (EU) 2016/679, Verordening (EU) 2018/1725 en Richtlijn (EU) 2016/680, + indien van toepassing. + Art. 50 lid 4 - gebruiksverantwoordelijken van een AI-systeem dat beeld-, audio- of videocontent gegenereert of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig + is gegenereerd of bewerkt die een deepfake vormt, maken bekend dat de content kunstmatig is gegenereerd of gemanipuleerd. Wanneer de content deel uitmaakt van een kennelijk artistiek, creatief, + fictief of analoof werk of programma, zijn de transparantieverplichtingen van dit lid beperkt tot de openbaarmaking van het bestaan van dergelijk gegenereerde of bewerkte content op een passende wijze + die de weergave of het genot van het werk niet belemmert." +- conclusionId: "12.24" + conclusion: "Je gebruikt geen algoritme." + obligation: "Houd je wel aan bestaande wet- en regelgeving (bijv. AVG wanneer je persoonsgegevens verwerkt)." +- conclusionId: "12.25" + conclusion: "Er is sprake van een uitzonderingsgrond. De AI-verordening is niet van toepassing." + obligation: " " +- conclusionId: "12.26" + conclusion: "Er is geen sprake van een uitzondering op de lijst van verboden AI-systemen." + obligation: "Het is verboden om dit AI-systeem te gebruiken." +- conclusionId: "12.27" + conclusion: "Je bent geen aanbieder en geen gebruiksverantwoordelijke. Deze beslisboom is gemaakt voor alleen deze twee rollen. Controleer nog een keer goed of één van deze rollen misschien toch op jou van toepassing is." + obligation: " " +- conclusionId: "12.28" + conclusion: "Je algoritme is niet impactvol en de AI-verordening is niet van toepassing." + obligation: "Houd je wel aan bestaande wet- en regelgeving (bijv. AVG wanneer je persoonsgegevens verwerkt)" + -### Buiten scope AI-verordening -- questionId: '9.0' - question: De AI-verordening is niet van toepassing. Gebruik je een algoritme met impact (rechtsgevolgen voor de burger of classificatie van burgers of groepen)? Volgens categorie B van de handreiking van het algoritmeregister +# ### Buiten scope AI-verordening +- questionId: "20.0" + question: "De AI-verordening is niet van toepassing. Gebruik je een algoritme met impact (rechtsgevolgen voor de burger of classificatie van burgers of groepen)? Volgens categorie B van de handreiking van het algoritmeregister" questionType: SingleChoice answers: - answer: Ja - nextQuestionId: '9.1' + nextQuestionId: "20.1" - answer: Nee - result: Je algoritme is niet impactvol en de AI-verordening is niet van toepassing. Houd je wel aan bestaande wet- en regelgeving (bijv. AVG wanneer je persoonsgegevens verwerkt) # bak W: AI verordening niet van toepassing - niet impactvol -- questionId: '9.1' + labels: + - "niet impactvol" + nextConclusionId: "12.28" +- questionId: "20.1" question: "Valt je toepassing onder \xE9\xE9n van de uitzonderingsgronden categorie C of D van de handreiking?" questionType: SingleChoice answers: - answer: Ja - result: Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing. Je hoeft vanwege uitzonderingsgrond niet te publiceren in het register # bak X: AI verordening niet van toepassing - impactvol maar niet publiceren vanwege uitzonderingsgrond + result: "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing. Je hoeft vanwege uitzonderingsgrond niet te publiceren in het register" + labels: + - "impactvol" - answer: Nee - result: Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing. Je moet wel publiceren in het algoritmeregister # bak Y: AI verordening niet van toepassing - impactvol + result: "Het betreft een algoritme met impact, maar de AI-verordening is niet van toepassing. Je moet wel publiceren in het algoritmeregister" + labels: + - "impactvol" diff --git a/schemas/base.schema.json b/schemas/base.schema.json index eba9ea5f..c354f173 100644 --- a/schemas/base.schema.json +++ b/schemas/base.schema.json @@ -2,7 +2,7 @@ "$schema": "https://json-schema.org/draft/2020-12/schema", "$id": "https://raw.githubusercontent.com/MinBZK/AI-act-beslisboom/main/schemas/base.schema", "title": "Beslisboom schema", - "description": "beslitboom schema", + "description": "Beslisboom schema", "type": "object", "properties": { "name": { @@ -24,7 +24,7 @@ }, "$defs": { "Result": { - "id": "#/$defs/Question", + "id": "#/$defs/Result", "type": "string" }, "Question": { @@ -32,17 +32,23 @@ "type": "string" }, "QuestionId": { - "id": "#/$defs/Question", + "id": "#/$defs/QuestionId", "type": "string", "uniqueItems": true }, - "Source": { - "id": "#/$defs/Source", - "type": "string" - }, - "SourceURL": { - "id": "#/$defs/SourceURL", - "type": "string" + "Sources": { + "id": "#/$defs/Sources", + "type": "object", + "properties": { + "source": { + "type": "string" + }, + "url": { + "type": "string", + "format": "uri" + } + }, + "required": ["source"] }, "Description": { "id": "#/$defs/Description", @@ -94,6 +100,9 @@ { "required": ["nextQuestionId"] }, + { + "required": ["nextConclusionId"] + }, { "required": ["default"] } @@ -109,6 +118,9 @@ "nextQuestionId": { "$ref": "#/$defs/QuestionId" }, + "nextConclusionId":{ + "$ref": "#/$defs/ConclusionId" + }, "result": { "$ref": "#/$defs/Result" }, @@ -137,6 +149,9 @@ { "required": ["nextQuestionId"] }, + { + "required": ["nextConclusionId"] + }, { "required": ["result"] }, @@ -170,14 +185,15 @@ "question": { "$ref": "#/$defs/Question" }, - "source": { - "$ref": "#/$defs/Source" - }, - "source_url": { - "$ref": "#/$defs/SourceURL" + "sources": { + "type": "array", + "items": { + "$ref": "#/$defs/Sources" + } }, "description": { - "$ref": "#/$defs/Description" + "$ref": "#/$defs/Description", + "type": "string" }, "questionType": { "type": "string", @@ -188,7 +204,7 @@ "items": { "$ref": "#/$defs/Answer" }, - "minItems": 3 + "minItems": 2 } }, "required": ["questionId", "question", "questionType", "answers"] @@ -203,14 +219,15 @@ "question": { "$ref": "#/$defs/Question" }, - "source": { - "$ref": "#/$defs/Source" - }, - "source_url": { - "$ref": "#/$defs/SourceURL" + "sources": { + "type": "array", + "items": { + "$ref": "#/$defs/Sources" + } }, "description": { - "$ref": "#/$defs/Description" + "$ref": "#/$defs/Description", + "type": "string" }, "questionType": { "type": "string", @@ -243,11 +260,11 @@ "obligation": { "$ref": "#/$defs/Obligation" }, - "source": { - "$ref": "#/$defs/Source" - }, - "source_url": { - "$ref": "#/$defs/SourceURL" + "sources": { + "type": "array", + "items": { + "$ref": "#/$defs/Sources" + } }, "questionType": { "type": "string",