Tool: Explainability Checklist

Welke vorm heeft de tool?

Checklist

Wat is het doel van de tool?

Het doel van de tool is om AI-ontwikkelaars en organisaties te ondersteunen bij het ontwikkelen en evalueren van uitlegbare AI-systemen. De checklist helpt inzichtelijk te maken in hoeverre een AI-toepassing begrijpelijk is voor eindgebruikers (zoals risk underwriters en fraude claim afhandelaren).

Voor wie is de tool bedoeld?

Verschillende stakeholders die betrokken zijn bij de ontwikkeling en het gebruik van een uitlegbare AI-systeem

Zijn er speciale vereisten of benodigdheden voor het inzetten of gebruiken van de tool?

Nee

Gebruikservaring: Kun je vertellen hoe je de tool in de praktijk gebruikt hebt, en met welk doel? Wat beviel er, en wat heb je ervan geleerd?

We hebben het gebruikt om de uitlegbaarheid van AI-systemen te evalueren op human-centered aspecten.

AI Literacy
Participative AI
AI Governance
AI Application
Wereld verbeteren
Risico verminderen
Inspiration
Data
Overview
Certainty

Volwassenheid: is de tool een concept in ontwikkeling, of morgen inzetbaar?

Inzetbaar

Zelfstandigheid: is de tool zelfstandig te gebruiken?

Ja

Bij welke richtlijn uit het RAAIT manifest sluit de tool aan?

Maak weloverwogen en transparante keuzes

Bij welk uitgangspunt uit het RAAIT manifest sluit de tool aan?

Eerst de mens, dan de technologie; Leg regie én verantwoordelijkheid bij de mens

Bij welke uitdaging van Responsible Applied AI past de tool?

AI Application (Design); AI Application (Technology); Organisation (Context)

Bij welke categorie uit het DOT Framework past de tool?

Field