Dit artikel gaat over de onzekerheid van uitkomsten van artificieel intelligente systemen, en hoe wij als mens daar mee om kunnen gaan. Eerst wordt een definitie van AI gegeven waarin de
kans wordt beschreven dat een antwoord lijkt op eerdere situaties waarop het systeem is getraind. Daarna wordt beschreven hoe de foutmarge in een uitkomst een AI-model anders maakt dan een
exact IT-model. Er worden zeven kenmerken besproken om als mens vertrouwen te hebben in een IT-systeem, een exact IT-systeem of een AI-systeem. Het unieke aspect van AI-modellen, de foutmarge /onzekerheid in de uitkomsten, wordt gerelateerd aan het menselijk inschattingsvermogen. Daarmee relateren we de onzekerheid in AI-uitkomsten met het vertrouwen in de uitkomsten vaneen AI-model of in de toepassing van het AI-model zelf. Vervolgens bespreken we generatieve AI, AI-modellen die creatie taken kunnen automatiseren.
Daarmee is een nieuw kenmerk van vertrouwen ontstaan: de inschatting van waarheid, van echt of nep. Nieuwe (AI) technologie is nog niet bekend, maar we moeten er wel mee leren omgaan. De relatie tussen AI-modellen en menselijk inschattingsvermogen, en menselijke verantwoordelijkheid, concentreert zich rondom het omgaan met onzekerheid. Dat kunnen we als mens in heel veel toepassingen wel, en hebben dit in het verleden al gedaan, maar soms is dit wennen. De term eigenwijs wordt opgesplitst in de term eigen, bekend, en de term wijs, als in expertise. Verken het onbekende, maar doe het wijs.
Auteurs: Nanda Piersma, Lisanne Henzen
Lees de publicatie hier