RAAIT @ ECAI ’23

woensdag 8 november 2023 | Event

Leestijd: +-5 minuten

Op de Europese conferentie rond Artificial Intelligence (ECAI) 2023 in Krakau, Polen, werd de eerste workshop rond verantwoorde toegepaste AI van RAAIT gehouden. Hieronder vind je een samenvatting van de dag  en meer over de verschillende bijdragen die tijdens deze workshopdag.

Keynote

De keynote speaker, Emma Beauxis-Aussalet, hield een presentatie over de voorwaarden en uitdagingen om AI in de praktijk ethisch te laten werken. Ze liet zien dat zelfs als de wiskunde die ten grondslag ligt aan uw AI-model correct is, wanneer je deze niet kunt communiceren of als deze niet alomvattend is, deze waarschijnlijk niet zal werken. Ze maakte de vergelijking met hoe zieke koeien in het verleden werden opgehouden door een katrolsysteem om goedkope – maar slechte – melk te produceren, en hoe momenteel eXplainable AI (XAI) in bepaalde organisaties ook wordt gebruikt als katrolsysteem om een melksysteem op peil te houden. slecht AI-programma actief met slechte resultaten als gevolg.

Presentaties

  • András Strausz en Ziyao Shang lieten ons hun implementatie zien voor een human-in-the-loop-framework, gebouwd op een flexibele webinterface, om onderzoekers te ondersteunen bij hun onderzoek naar vooroordelen in hun visuele datasets.
  • Laura de Groot liet ons hun fysieke model zien voor het visualiseren van de afwegingen tussen Machine Learning (ML), ter ondersteuning van de integratie van (niet-) deskundige belanghebbenden in de AI-ontwikkelingspraktijk.
  • Stefan Leijnen liet ons de intrigerende balans zien tussen het tonen van de complexiteit van een systeem aan gebruikers en het effect ervan op vertrouwen, waarbij het onder de aandacht brengen van de complexiteit van het systeem zowel kan leiden tot een toename van gerechtvaardigd vertrouwen als tot ongegrond wantrouwen.
  • Steven Vethman en Cor Veenman presenteerden hun methode om testlaboratoria in staat te stellen pilotstudies uit te voeren zonder nadelige gevolgen voor (on)bekende deelnemende personen, terwijl ze tegelijkertijd de hoeveelheid bruikbare inzichten vergrootten die door het onderzoek werden verkregen.
  • Max Knobbout introduceerde een vijandige methode om eerlijke gegevens te bereiken door gevoelige variabelen te wissen. Twee kunstmatige agenten concurreren; de acteur verbergt de gevoelige variabele met behulp van een encoder, terwijl de tegenstander deze probeert te raden uit de gecodeerde gegevens. Dit proces gaat door totdat de tegenstander de gevoelige variabele niet nauwkeurig kan raden, waardoor een eerlijke representatie van de dataset wordt gegarandeerd.
  • Jacintha Walters presenteerde onderzoek naar de naleving van de EU AI Act. Via een reeks interviews met kleine en middelgrote bedrijven schetste zij de belangrijkste onderwerpen waarmee zij te maken krijgen.
  • Felix Friedrich liet zien hoe je een generatief beeldmodel expliciet kunt wegsturen van bepaalde onbedoelde vooroordelen die het kan hebben via een laagdrempelige aanpak, in tegenstelling tot negatieve prikkels waarbij onbedoelde vooroordelen zullen blijven verschijnen.
  • Martin van den Berg deelde inzichten uit interviews bij een financieel bedrijf, waarbij hij zich concentreerde op een gebruiksscenario van frauduleuze verzekeringsclaims. Deelnemers bespraken het proces, ethische beoordelingen en praktijken voor het beheersen van risico’s en negatieve gevolgen voor belanghebbenden of daarbuiten.
  • Coert van Gemeren schetste hun onderzoek naar de praktische toepasbaarheid van AI Impact Assessments in de mediasector. Door middel van interviews onderzochten ze welke onderdelen van de AI Impact Assessment van de Nederlandse AI Coalitie ten goede zouden kunnen komen aan de mediasector, en hoe een dergelijk instrument zou kunnen worden aangepast zodat het bruikbaar en geschikt zou zijn voor adoptie in deze sector.

Highlights, trends en observaties

Tijdens de presentaties werden de onderwerpen van de presentaties op voorbereide borden in kaart gebracht, waarbij we hoogtepunten en trends hebben opgemerkt. Er zit een complexiteit in het garanderen van ethische uitkomsten van AI-systemen en -ontwerp, waarbij zelfs volledig ethische besluitvormingsprocessen tot onethische uitkomsten kunnen leiden, en slechts één enkele fout kan aan velen langs de lijn worden gekoppeld. Daarom is het belangrijk om te ontwerpen op fouten, ervoor te zorgen dat de systemen ‘goed kapot gaan’ en dat we al voorbereid zijn op wat volgt.
Er is bovendien een noodzaak om belanghebbenden zo vroeg mogelijk op de juiste manier te integreren (niet als een middel om ‘participatiewassing’ uit te voeren) in het AI-ontwerpproces, om ervoor te zorgen dat ze geen negatieve invloed ondervinden van onze tests voor validatie, en om ze ons naar potentiële bronnen te laten sturen. van vooroordelen in onze systemen.
Deelnemers aan de workshop zouden graag een meer open betrokkenheid tussen ontwerpwetenschap en techniek zien als een tweerichtingsverkeer, in plaats van een eenrichtingsverkeer van het laatste naar het eerste. Er moet op conferenties meer ruimte worden gemaakt voor de gebruiker.

Uitdagingen

Tijdens de break-outsessie werd de groep onderverdeeld in 4, met de taak om te beslissen over de top 3 uitdagingen om Verantwoorde AI in de praktijk mogelijk te maken, waarbij de nadruk lag op verschillende subonderwerpen: waarden, organisatorische context, AI-toepassing en methoden. Deze vier deelonderwerpen zijn gebaseerd op de onderzoeksagenda van de RAAIT, waarover u hier meer kunt lezen. De resultaten vindt u hieronder:
Waarden
1. Balanceren tussen het focussen op gespecificeerde waarden en het faciliteren van een open discussie.
2. Waarden blijven vaak vaag of breed. Een uitdaging is de moeilijkheid om waarden concreet te maken en deze door de hele organisatie heen te internaliseren.
3. Het opnemen van maatschappelijke en ecologische kwesties als onderdeel van de waarden waarop we Verantwoorde AI bouwen.
Organisatorische context
1. Het effect van de AI-transitie op de arbeidsmarkt: zullen banen overbodig worden, moeten banen worden beschermd?
2. Veerkracht versus afhankelijkheid van AI. Er is momenteel een grote afhankelijkheid van organisaties als Huggingface en OpenAI, maar wat als deze verdwijnen? Hoe gaan we deze scenario’s garanderen en veerkrachtiger worden in het licht van veranderingen?
3. Hoe verzoenen we ethiek en kapitalisme? Aandeelhouderswaarde is de grootste drijfveer voor bedrijven. Hoe breng je ethische waarden in lijn met aandeelhoudersbelangen?
AI-toepassingen
1. Gebrek aan economische prikkel – of duidelijkheid daarvan – om de ethische ontwikkeling van AI voor bedrijven na te streven.
2. Er is niet één oplossing die voor iedere organisatie werkt, waardoor de lat voor instap hoog ligt
3. Het betrekken van alle belanghebbenden gedurende de gehele ontwikkelingspijplijn wordt vaak gezien als een bedreiging/aansprakelijkheid/klus voor het ‘goed’ functioneren van het ontwikkelingsproces.
Methoden
1. Ontwikkelingsstatistieken voor verantwoorde AI
2. Toepassing van statistieken voor verantwoorde AI
3. Er is een probleem bij de samenwerking met engineering, omdat de huidige interacties eenrichtingsverkeer zijn tussen engineering en ontwerpstudies.

Conclusie

De geweldige bijdragen van de deelnemers, de boeiende discussies en daardoor onze eigen inzichten, onderstrepen de noodzaak van een interdisciplinaire, betrokken belanghebbenden, ethisch bewuste benadering van de ontwikkeling en inzet van AI. Via ons werk bij RAAIT hopen wij hieraan een steentje bij te kunnen dragen. Wil je meer weten over de RAAIT workshop en daar in het vervolg een bijdrage aan leveren? Kijk op deze pagina en neem contact op via info@raait.nl.

Note: De gegeven proceedings worden nog gepubliceerd, inclusief veel van de onderliggende artikelen van presentaties die tijdens onze workshop worden gehouden.