Brandweerlieden werken in een gevaarlijke, dynamische en complexe omgeving. Kunstmatige Intelligentie (AI) kan helpen om de situatie van brandweerlieden beter in de gaten te houden en hun besluitvorming te verbeteren. Maar de invoering van AI-systemen moet verantwoordelijk gebeuren, met oog voor (menselijke) waarden, vooral omdat de situaties waarin brandweerlieden zich bevinden onzeker zijn en beslissingen grote gevolgen hebben.
In dit onderzoek kijken we naar de waarden die worden beïnvloed door de invoering van AI-systemen in de brandweer. We doen dit door enkele semi-gestructureerde focusgroepgesprekken te voeren met (operationele) brandweermensen. De resultaten van deze focusgroepen worden kwalitatief geanalyseerd, en belangrijke waarden worden geïdentificeerd en besproken.
Dit onderzoek is een eerste stap in een proces om een algemeen kader te ontwikkelen voor de ethische aspecten van de invoering van AI-systemen bij eerste hulp. Dit zal inzicht geven in de relevante ethische aspecten die we in gedachten moeten houden bij het ontwikkelen van AI-systemen voor hulpverleners.
Auteurs: T. Mioch, Huib Aldewereld, M.A. Neerincx
Lees de publicatie hier