Tool: AI Fairness 360 (AIF360)
Welke vorm heeft de tool?
De tool is een Python en R package dat gebruikt kan worden om inzicht te geven in de mate waarin ML applicaties voldoen aan verschillende fairness maten en definities
Wat is het doel van de tool?
De tool geeft veel verschillende opties om inzicht te geven in de fairness van een ML applicatie en biedt ook gereedschap om verschillende vormen van bias te verminderen
Voor wie is de tool bedoeld?
ML-engineers
Zijn er speciale vereisten of benodigdheden voor het inzetten of gebruiken van de tool?
Er is kennis nodig van Data Science, iemand moet in Python kunnen programmeren, en men moet zich inlezen in fairness en het AIF360-software pakket en hoe de output uit AIF360 geïnterpreteerd kan worden. Als degene die de informatie ontvangt een eindgebruiker is, zal deze ondersteuning nodig hebben bij de duiding van de informatie die uit AIF360 komt, zeker als deze persoon ook geen achtergrond heeft in data science.
Volwassenheid: is de tool een concept in ontwikkeling, of morgen inzetbaar?
Inzetbaar
Zelfstandigheid: is de tool zelfstandig te gebruiken?
Afhankelijk van of zij de benodigde achtergrondkennis hebben om zich de tool eigen te maken op basis van de beschikbare documentatie.
Bij welke richtlijn uit het RAAIT manifest sluit de tool aan?
Maak weloverwogen en transparante keuzes; Investeer gericht en neem verantwoordelijkheid.
Bij welk uitgangspunt uit het RAAIT manifest sluit de tool aan?
Eerst de mens, dan de technologie; Gelijke kansen en inclusiviteit; Weeg impact op de korte én lange termijn
Bij welke uitdaging van Responsible Applied AI past de tool?
AI Application (Technology)
Bij welke categorie uit het DOT Framework past de tool?
Lab; Workshop
https://github.com/Trusted-AI/AIF360
Maker
Open Source
Contactpersoon van de tool
Erik Slingerland: erik.slingerland@hu.nl
Wetenschappelijke publicatie
Bellamy, R. K., Dey, K., Hind, M., Hoffman, S. C., Houde, S., Kannan, K., … & Zhang, Y. (2019). AI Fairness 360: An extensible toolkit for detecting and mitigating algorithmic bias. IBM Journal of Research and Development, 63(4/5), 4-1. https://arxiv.org/abs/1810.01943