Tool: AI Fairness 360 (AIF360)

Welke vorm heeft de tool?

De tool is een Python en R package dat gebruikt kan worden om inzicht te geven in de mate waarin ML applicaties voldoen aan verschillende fairness maten en definities

Wat is het doel van de tool?

De tool geeft veel verschillende opties om inzicht te geven in de fairness van een ML applicatie en biedt ook gereedschap om verschillende vormen van bias te verminderen

Voor wie is de tool bedoeld?

ML-engineers

Zijn er speciale vereisten of benodigdheden voor het inzetten of gebruiken van de tool?

Er is kennis nodig van Data Science, iemand moet in Python kunnen programmeren, en men moet zich inlezen in fairness en het AIF360-software pakket en hoe de output uit AIF360 geïnterpreteerd kan worden. Als degene die de informatie ontvangt een eindgebruiker is, zal deze ondersteuning nodig hebben bij de duiding van de informatie die uit AIF360 komt, zeker als deze persoon ook geen achtergrond heeft in data science.

AI Literacy
Participative AI
AI Governance
AI Application
Wereld verbeteren
Risico verminderen
Inspiration
Data
Expertise
Fit
Overview
Certainty

Volwassenheid: is de tool een concept in ontwikkeling, of morgen inzetbaar?

Inzetbaar

Zelfstandigheid: is de tool zelfstandig te gebruiken?

Afhankelijk van of zij de benodigde achtergrondkennis hebben om zich de tool eigen te maken op basis van de beschikbare documentatie.

Bij welke richtlijn uit het RAAIT manifest sluit de tool aan? 

Maak weloverwogen en transparante keuzes; Investeer gericht en neem verantwoordelijkheid.

Bij welk uitgangspunt uit het RAAIT manifest sluit de tool aan?

Eerst de mens, dan de technologie; Gelijke kansen en inclusiviteit; Weeg impact op de korte én lange termijn

Bij welke uitdaging van Responsible Applied AI past de tool?

AI Application (Technology)

Bij welke categorie uit het DOT Framework past de tool?

Lab; Workshop

https://github.com/Trusted-AI/AIF360 

Maker

Open Source

Contactpersoon van de tool

Erik Slingerland: erik.slingerland@hu.nl 

Wetenschappelijke publicatie

Bellamy, R. K., Dey, K., Hind, M., Hoffman, S. C., Houde, S., Kannan, K., … & Zhang, Y. (2019). AI Fairness 360: An extensible toolkit for detecting and mitigating algorithmic bias. IBM Journal of Research and Development, 63(4/5), 4-1. https://arxiv.org/abs/1810.01943