Kunstmatige Intelligentie (AI) wordt steeds vaker gebruikt in de eerste hulp, maar deze invoering moet verantwoordelijk gebeuren. Hoewel er al algemene uitspraken zijn gedaan over wat dit inhoudt, zijn er meer details nodig om precies te begrijpen wat een verantwoord gebruik van AI in de eerste hulp betekent. De context waarin AI-systemen worden toegepast, bepaalt voor een groot deel de ethische, juridische en maatschappelijke impact, en hoe we deze impact verantwoord kunnen aanpakken.
Daarom onderzoeken we empirisch welke menselijke waarden worden beïnvloed door de invoering van een specifieke AI-gebaseerde beslissingshulp (AIDA), een beslissingsondersteunend systeem dat wordt ontwikkeld voor de brandweer in Nederland. We hebben 10 expertgroep-sessies gehouden en de impact van AIDA op verschillende belanghebbenden besproken. Dit artikel presenteert het ontwerp en de uitvoering van de studie en, aangezien we nog bezig zijn met een gedetailleerde analyse van de sessies, geeft het een samenvatting van voorlopige inzichten en vervolgstappen.
Auteurs: T. Mioch, Huib Aldewereld, M.A. Neerincx
Lees de publicatie hier