De uitdagingen van inclusie in het tijdperk van AI

Een wervingstool die vrouwen afwijst die solliciteren naar technische banen, gezichtsherkenningstechnologie die bevooroordeeld is ten opzichte van zwarte gezichten, een wervingssysteem dat CV's van mensen boven de 55 afwijst .... Al deze voorbeelden illustreren de vooringenomenheid van kunstmatige intelligentiesystemen. Een analyse door Sara Portell, VP User Experience bij Unit4.

post-image-3

Als er “vooroordelen” aanwezig zijn in bepaalde AI-toepassingen, dan is dat niet omdat de software seksistisch, racistisch of ageistisch is, zegt Sara Portell, VP User Experience bij Unit4.

“AI-systemen leren van gegevens die vaak historische en maatschappelijke vooroordelen bevatten, die ze vervolgens onbedoeld kunnen reproduceren”. Dus als algoritmen worden getraind op niet-representatieve datasets, hoe kunnen ze dan de behoeften van alle bevolkingsgroepen en groepen weerspiegelen?

 

De gevolgen van bevooroordeelde AI

 

“AI-systemen met vooroordelen leiden tot veel ongewenste of onbedoelde problemen”, legt Sara Portell uit. “Een van de meest directe gevolgen is de mogelijkheid van hoge boetes: in het geval van het hierboven genoemde leeftijdsgebonden wervingssysteem betaalde het bedrijf uiteindelijk 365.000 dollar om een einde te maken aan een rechtszaak.”

 

Bedrijven die ervoor kiezen om belangrijke beslissingen te nemen op basis van oneerlijke en onnauwkeurige AI-systemen voor werving, promotie en prestatiebeoordelingen lopen het risico om ongelijkheid en discriminatie te bestendigen, zegt de specialist. 

Omgekeerd zorgen “onbevooroordeelde AI-systemen voor betere besluitvorming op basis van relevante en nauwkeurige gegevens die verschillende perspectieven weerspiegelen, zorgen voor adequate vertegenwoordiging, kwaliteit behouden, verschillende groepen wegen en bestaande vooroordelen of fouten corrigeren”.

We leven in een geglobaliseerde economie. Bedrijven hebben mensen over de hele wereld in dienst, waardoor een zeer divers personeelsbestand ontstaat. Als de AI-systemen die door wereldwijde bedrijven worden gebruikt bevooroordeeld zijn, kunnen ze niet hopen de diversiteit aan behoeften, perspectieven en capaciteiten van al deze werknemers te vertegenwoordigen.

Vertrouwen is daarom essentieel. “Hoe kunnen we een AI-systeem vertrouwen en toepassen als het als oneerlijk wordt ervaren? “De toekomst van werk zal gebaseerd zijn op samenwerking tussen mensen en AI. Dit zal echter moeilijk te realiseren of te managen zijn personeel door terugkerende voorbeelden van vooringenomenheid een negatieve houding aanneemt ten opzichte van de technologie en deze niet transparant te werk gaat.”

Het risico van het bestendigen van ongelijkheid

Bedrijven die ervoor kiezen om belangrijke beslissingen te nemen op basis van oneerlijke en onnauwkeurige AI-systemen voor werving, promotie en prestatiebeoordelingen lopen het risico om ongelijkheid en discriminatie te bestendigen, aldus de expert. 

Omgekeerd zorgen “onbevooroordeelde AI-systemen voor betere besluitvorming op basis van relevante en nauwkeurige gegevens die verschillende perspectieven weerspiegelen, zorgen voor adequate vertegenwoordiging, kwaliteit behouden, verschillende groepen wegen en bestaande vooroordelen of fouten corrigeren”.

We leven in een geglobaliseerde economie. Bedrijven hebben mensen over de hele wereld in dienst, waardoor een zeer divers personeelsbestand ontstaat. Als de AI-systemen die door wereldwijde bedrijven worden gebruikt bevooroordeeld zijn, kunnen ze niet hopen de diversiteit aan behoeften, perspectieven en capaciteiten van al deze werknemers te vertegenwoordigen.

Vertrouwen is daarom essentieel. “Hoe kunnen we een AI-systeem vertrouwen en toepassen als het als oneerlijk wordt ervaren? “De toekomst van werk zal gebaseerd zijn op samenwerking tussen mensen en AI. Dit zal echter moeilijk te realiseren of te managen zijn als personeel door terugkerende voorbeelden van vooringenomenheid een negatieve houding aanneemt ten opzichte van de technologie en deze niet transparant te werk gaat.

“ Naast mogelijke boetes en wantrouwen van gebruikers, zal toekomstige regelgeving bedrijven verplichten om te zorgen voor een eerlijke toepassing van AI. De AI Act van de Europese Unie en de GDPR bevatten regels rond AI-veiligheid, transparantie, eerlijkheid en nauwkeurigheid, die bedrijven zullen moeten volgen om aan de wet te voldoen,” waarschuwt Sara Portell.

Volgens deze regels “hebben bedrijven een morele verantwoordelijkheid om te voorkomen dat AI-systemen schade veroorzaken, wat het geval zou zijn als ze een discriminerende benadering ten opzichte van één groep zouden hanteren”.

Diverse ontwikkelteams bevorderen rechtvaardige AI

Om ervoor te zorgen dat diversiteit centraal staat in AI-systemen, “moeten bedrijven en teams die verantwoordelijk zijn voor het ontwikkelen en leren van systemen een afspiegeling zijn van de diversiteit van onze samenleving. Wanneer homogene groepen aan een toepassing werken, is de kans groot dat ze de specifieke behoeften van een divers doelpubliek negeren en als gevolg daarvan producten ontwikkelen die niet echt voldoen aan de behoeften van alle beoogde gebruikersgroepen. Dit is vandaag de dag helaas het geval, aangezien de meeste AI-ontwikkelaars mannen zijn”.

Sara Portell: “Het is zorgwekkend dat vrouwen, die 50% van de bevolking uitmaken, zo slecht vertegenwoordigd zijn bij het ontwerpen en ontwikkelen van zo'n belangrijke technologie. AI gaat ons helpen bepaalde aspecten van de samenleving te transformeren en opnieuw vorm te geven en toekomstige bedrijven vorm te geven. Maar slechts 22% van het personeel dat betrokken is bij de ontwikkeling van AI is vrouw, dus we missen een enorm scala aan verschillende ervaringen, behoeften en gezichtspunten”.

Daarom is het van vitaal belang dat meer vrouwen leidinggevende posities bekleden in de AI-sector. Ze kunnen unieke perspectieven en ervaringen bieden en een cruciale rol spelen bij het bevorderen van praktijken die sociale verantwoordelijkheid en vertrouwelijkheid van gegevens bevorderen. 

Sara Portell vat samen: “Als vrouwen een sleutelrol krijgen, is de kans groter dat teams die AI-technologieën ontwikkelen mogelijke vooroordelen herkennen en corrigeren tijdens de ontwerp- en ontwikkelingsfasen, dankzij hun verschillende perspectieven. Het resultaat zijn datasets en testprotocollen die inclusie en gelijkheid bevorderen.”

Vrouwelijke leiders in de frontlinie

AI-technologieën moeten consistent presteren in alle demografische groepen die de doelgroep van de toepassing vormen, om te voorkomen dat uitsluiting en discriminatie blijven bestaan. En om ervoor te zorgen dat dit het geval is, staan vrouwelijke managers in de frontlinie”, waarschuwt de Unit4-specialist.

Veel bedrijven zijn zich hiervan bewust. Volgens een recent onderzoek is 73% van de bedrijfsleiders in de EMEA-regio van mening dat het versterken van vrouwelijk leiderschap in de AI-sector belangrijk is om de gendervooroordelen van deze technologie te verminderen, terwijl 74% het belangrijk vindt om ervoor te zorgen dat de economische voordelen van AI overal in de maatschappij in gelijke mate merkbaar zijn.

De ondervertegenwoordiging van vrouwen in de AI-sector dreigt echter het aantal problemen te beperken dat door de ontwikkeling van AI kan worden opgelost. Door meer vrouwen op leidinggevende posities te krijgen, kan de ontwikkeling van AI worden gericht op het oplossen van bredere maatschappelijke problemen, waarbij rekening wordt gehouden met de diversiteit van de uitdagingen waarmee verschillende bevolkingsgroepen worden geconfronteerd.

Het vergroten van de vertegenwoordiging van vrouwen in leidinggevende AI-teams gaat niet alleen over het voorkomen van vooroordelen, maar ook over het ontsluiten van het volledige potentieel van innovatie. Een diversiteit aan perspectieven leidt tot innovatievere en effectievere AI-oplossingen die een bredere set van maatschappelijke behoeften en uitdagingen aanpakken.

Back to top button
Close
Close