Nieuwscentrum
Arlette van Wissen

dec 07, 2021

“We moeten vooroordelen niet meeprogrammeren”

Gemiddelde leestijd: 5-7 minuten

Arlette van Wissen heeft een missie: ervoor te zorgen dat de algoritmes die Philips ontwikkelt zo veel mogelijk ‘bias-free’ zijn, dus vrij van vooroordelen.  
 
Hoewel kunstmatige intelligentie (AI) de potentie heeft om de zorg voor iedereen betaalbaarder en toegankelijker te maken, brengt het ook nieuwe aandachtspunten met zich mee, zoals Chief Technology Officer Henk van Houten al waarschuwde: “Mensen selecteren de data waarop algoritmes worden gebaseerd, en dus zijn ze nog steeds vatbaar voor onbewuste vooroordelen”.

AI-winter

Arlette zette haar eerste stappen in de wereld van AI op een moment dat het onderwerp nog niet bepaald ‘hot’ was. “De tijd waarin ik aan mijn studie Cognitieve Kunstmatige Intelligentie begon, in 2003, was aan het eind van een periode die achteraf een ‘AI-winter’ wordt genoemd. Na een aantal doorbraken in de jaren tachtig en negentig, zoals de Deep Blue-technologie van IBM die voor het eerst van mensen wist te winnen met schaken, was het weer een tijdje relatief stil.

 

Er waren heel innovatieve technologieën, maar nog niet de data om ze impact te laten hebben. Daar kwam eigenlijk pas weer beweging in rond 2009, toen er dankzij social media, sensoren en smartphones steeds meer data beschikbaar kwamen.”

Arlette van Wissen

Haar studiekeuze was niet alleen ingegeven door een voorliefde voor informatica. “Het mooie aan cognitieve kunstmatige intelligentie is dat het een combinatie is van informatica, taalkunde, psychologie en filosofie. Het begint met het begrijpen van cognitie: hoe nemen we eigenlijk waar, hoe verwerken we informatie en hoe hebben we interactie met de wereld om ons heen? Pas als je dat snapt, kun je computermodellen ontwikkelen die dat ook kunnen of kunnen ondersteunen.”

Philips combineert het beste van de academische wereld en het bedrijfsleven, omdat je ook echt ruimte krijgt om onderzoek te doen.

Arlette van Wissen

Senior Data Scientist

Arlette kwam tijdens haar promotieonderzoek aan de Vrije Universiteit Amsterdam in aanraking met AI in de gezondheidszorg: “In mijn PhD heb ik me vooral gericht op het modelleren van menselijk gedrag en het stimuleren van gedragsverandering met behulp van AI. We onderzochten onder meer hoe je AI kunt inzetten om patiënten meer therapietrouw te maken.

 

Denk aan mensen met diabetes type 2 of aan hartpatiënten; de therapie die ze krijgen is vaak gericht op een gezondere levensstijl. We hebben onderzocht of je met behulp van AI kunt detecteren wat de belangrijkste obstakels zijn voor deze patiënten om te kiezen voor een gezonde levensstijl en hoe we hun gedrag op een positieve manier kunnen beïnvloeden.”

 

Na haar promotieonderzoek lonkten zowel de academische wereld als het bedrijfsleven. “Ik kwam er op een gegeven moment achter dat Philips een mooie combinatie van die twee biedt, omdat je ook echt ruimte krijgt om onderzoek te doen.”

Onbewuste vooroordelen

Aanvankelijk hield ze zich ook binnen Philips bezig met onderzoek naar AI en gedragsverandering. “Toen was ik betrokken bij een initiatief binnen Research om inclusiviteit en diversiteit meer te stimuleren. Dat was in de tijd dat er regelmatig nieuws naar buiten kwam over problemen bij grote technologiebedrijven, die onbewust bepaalde vooroordelen in hun algoritmes hadden opgenomen.

 

Er was ineens een groot bewustzijn bij iedereen in het vakgebied; als algoritmes zo’n groot onderdeel van ons leven zijn, dan moeten we er wel voor zorgen dat die zo veel mogelijk vrij zijn van vooroordelen. Dat geldt zeker voor de gezondheidszorg; dat is een kwetsbaar domein, dus moet je hier extra alert op zijn.”

Er was ineens een groot bewustzijn bij iedereen in het vakgebied; als algoritmes zo’n groot onderdeel van ons leven zijn, dan moeten we er wel voor zorgen dat die zo veel mogelijk vrij zijn van vooroordelen. Dat geldt zeker voor de gezondheidszorg; dat is een kwetsbaar domein, dus moet je hier extra alert op zijn.

Arlette van Wissen

Senior Data Scientist

Hartfalen bij vrouwen minder goed herkend

Voorbeelden van hoe het mis zou kunnen gaan zijn er genoeg, aldus Arlette: “Het is een bekend feit dat veel medisch onderzoek is gebaseerd op data van met name witte mannen. AI-modellen worden vaak getraind op databases met een vertegenwoordiging van vrouwen van maximaal 30 procent. Dat kan een enorme impact hebben.

 

Zo is bekend dat symptomen van hartfalen bij vrouwen minder goed worden herkend, omdat de kennis en informatie die beschikbaar is, met name gebaseerd is op witte mannen van middelbare leeftijd. Maar ook jonge vrouwen kunnen hartfalen krijgen, alleen zijn de symptomen vaak anders.

 

Dat laat maar weer zien: vooroordelen in data en AI-modellen kunnen levensgevaarlijk zijn. Andersom is gebleken dat mannen vaak worden ondergediagnosticeerd voor depressie en eetstoornissen, waar culturele vooroordelen over het uiten van emoties mogelijk aan bijdragen.”

 

Niet alleen geslacht is een belangrijke factor, maar ook afkomst, leeftijd en fysieke eigenschappen als lengte en gewicht spelen mee. “Een bekend recent voorbeeld in de medische wetenschap is patiëntonderzoek naar de nierfunctie. Een aantal onderzoekers heeft ontdekt dat zwarte patiënten vaak een relatief betere score kregen bij nierfunctie-onderzoek dan witte mensen met dezelfde metingen, omdat er onterecht van werd uitgegaan dat zwarte mensen meer spiermassa zouden hebben. Als je bedenkt dat de resultaten van deze onderzoeken worden gebruikt om te bepalen of een patiënt in aanmerking komt voor een donornier, dan is dat best heftig.”

Arlette van Wissen

Het gaat om bewustwording

Arlette maakt nu onderdeel uit van een ‘Data & AI Center of Excellence’ binnen Philips, waarin zij collega’s in alle onderdelen van de organisatie helpt om data en AI-modellen zo veel mogelijk vooroordelenvrij en eerlijk (bias-free and fair) te maken.

 

“Dat gaat van het ontwikkelen van tools en richtlijnen, tot training en advies; we helpen collega’s in het veld om hier stappen in te maken. Maar het gaat ook om bewustwording. Er zijn veel publieke datasets die worden gebruikt voor medisch onderzoek, die nou niet bepaald een goede afspiegeling zijn van de samenleving, bijvoorbeeld omdat er relatief veel data van mannen of een witte populatie in zitten. Als je je daar bewust van bent, dan kun je al bepaalde correcties toepassen om ervoor te zorgen dat er geen bias in je model terecht komt.”

Arlette van Wissen

Levert haar werk ook interessante discussies op feestjes op? “Mensen lijken nog wel eens te denken dat dit een probleem is dat zichzelf uiteindelijk wel oplost. Dat is niet zo, omdat er bewustwording voor nodig is om de patronen te doorbreken. We moeten er scherp op blijven dat we vooroordelen niet onbewust mee programmeren. Als je er niets aan doet, kunnen vooroordelen makkelijk versterkt worden in een algoritme. Daarbij heeft iedereen een bepaalde bias. Ik ook, of ik dat nu wil of niet. Het is het belangrijkste dat je je daar bewust van bent en bepaalde checkpoints in je werk inbouwt om die vooroordelen uit de data en de modellen te houden.”

Mensen lijken nog wel eens te denken dat dit een probleem is dat zichzelf uiteindelijk wel oplost. Dat is niet zo. Als je er niets aan doet, kunnen vooroordelen makkelijk versterkt worden in een algoritme.

Arlette van Wissen

Senior Data Scientist

In haar huidige rol kan ze haar voorliefde voor interactie tussen mens en AI ook weer kwijt: “We hebben nogal eens de neiging om AI te zien als de oplossing voor alles. In ons werk zien we heel duidelijk dat AI ons tools geeft die heel handig zijn voor bepaalde dingen, maar die ook weer eigen uitdagingen met zich meebrengen. Het is geen wondermiddel, maar een hulpmiddel voor mensen, waar we goed mee om moeten gaan.”

 

Bij Philips vinden we het belangrijk dat mensen zichzelf kunnen zijn, goed in hun vel zitten en zichzelf kunnen ontwikkelen. In de serie Philips & Ik gaan we op zoek naar collega’s die iets bijzonders doen op het gebied van Inclusiviteit & Diversiteit, gezondheid en welzijn of persoonlijke ontwikkeling.
 
Lees ook:
 
“Als je jezelf blijft ontwikkelen en lekker in je vel zit, kun je de beste versie van jezelf zijn”, een interview met Suzanne Verzijden, Head of HR Benelux, over wat er nu eigenlijk voor zorgt dat mensen graag bij Philips willen werken.

 

Raquel Schroyen zette haar Philips-vrijwilligersuren in om kaartjes te sturen naar eenzame ouderen: “Iedereen vindt het leuk om een kaartje te krijgen. Het is een soort knuffel in een envelop.”

 

Stephano Bel en ck Andrade richtten een Europese Black Employee Resource Group op; een veilige plek om open en kwetsbaar te zijn over inclusiviteit en diversiteit – voor iedereen.

Arlette van Wissen

"We shouldn't bring bias into our algorithms"

Arlette van Wissen is on a mission; to make the algorithms developed by Philips as 'bias-free' as possible.

 

Although artificial intelligence (AI) has the potential to keep healthcare affordable and accessible for everyone, it also brings new challenges, as Chief Technology Officer Henk van Houten previously warned, "An algorithm’s output is very much shaped by the data we feed into it – and by other human choices that guide the development and deployment of the algorithm. These choices may be subject to biases that unintentionally put certain groups at a disadvantage.”

AI Winter

Arlette took her first steps into the world of AI at a time when the subject was not exactly 'hot'. "I started my studies in Cognitive Artificial Intelligence in 2003, which was at the end of a time period that in retrospect is called an 'AI winter'. After a number of AI breakthroughs in the 1980s and 1990s, such as IBM's Deep Blue technology that managed to beat humans at chess for the first time, it was again relatively quiet for a while. A lot of innovative technologies were already available, but we didn’t yet have the data to make an impact. AI research regained traction around 2009, when more and more data became available thanks to social media, sensors and smartphones."

Arlette van Wissen

Her choice of study was not only motivated by a love of computer science. "The beauty of cognitive artificial intelligence is that it is a combination of computer science, linguistics, psychology and philosophy. It starts with understanding cognition: how do we actually perceive, how do we process information and how do we interact with the world around us? Only when you understand this, you can start developing computer models that support that."

Philips combines the best of both the academic world and industry, because you really get the opportunity to do research.

Arlette van Wissen

Senior Data Scientist

Arlette became familiar with AI in healthcare during her PhD research at VU University Amsterdam: "In my PhD, I mainly focused on modeling human behavior and stimulating behavior change using AI. One of the things we researched was how you can use AI to make patients more adherent to their therapy. Think of people with type 2 diabetes or heart patients; the therapy they receive is often aimed at a healthier lifestyle. We investigated whether you could use AI to detect what the main bottlenecks are for these patients to adhere to a healthier lifestyle and how we can influence their behavior in a positive way."

 

After her PhD research, she was drawn to both the academic world and industry. "I found out that Philips offers a nice combination of the two, because you really get the opportunity to do research."

Unconscious biases

Initially, she was also involved in AI and behavior change research within Philips. "Then later on I was involved in an initiative within Research to encourage inclusiveness and diversity. At that time, you could regularly read in the news about issues at large technology companies, where certain biases had unconsciously been incorporated into their algorithms.
 
This suddenly sparked a great awareness among everyone in the field; if algorithms are such a big part of our lives, then we have to make sure that they are as free of bias as possible. That's especially true in healthcare; this is a vulnerable domain, so you have to be extra vigilant about this."

There suddenly was great awareness among everyone in the field; if algorithms are such a big part of our lives, then we need to make sure that they are as free of bias as possible. That certainly applies to healthcare; this is a vulnerable domain, so you have to be extra vigilant about this.

Arlette van Wissen

Senior Data Scientist

Heart failure in women less well recognized

Examples of how things could go wrong are plentiful, says Arlette: "It's a well-known fact that a lot of medical research is based on mostly data of white men. AI models are often trained on databases with a representation of women of at most 30 percent. This can have a huge impact.

 

For example, it is known that symptoms of heart failure are not as well recognized in women as they are in men because the knowledge and information available is based primarily on middle-aged white men. But young women can also develop heart failure, only the symptoms are often different.

 

This just goes to show: biases in data and AI models can be life-threatening. Conversely, it has been shown that men are often underdiagnosed for depression and eating disorders, and cultural biases about expressing emotions may contribute to this."

 

Not only gender is an important factor; but ancestry, age and physical characteristics such as height and weight also play a role. "A well-known recent example in medical science is patient research on kidney function. A number of researchers have found that scores for kidney function tests of black patients often were relatively better than those for white people with the same measurements, because it was wrongly assumed that black people would have more muscle mass. When you consider that the results of these tests are used to determine a patient's eligibility for a donor kidney, that's pretty intense."

Arlette van Wissen

It's about awareness

Arlette is now part of a ‘Data & AI Center of Excellence’ within Philips, in which she helps colleagues in all parts of the organization to make data and AI models as bias-free and fair as possible.

 

"Those efforts range from developing tools and guidelines, to training and consulting; we help colleagues in the field to make strides in this. But it's also about awareness. There are many public datasets used for medical research that are not exactly a good reflection of society, for example because they contain a relatively large amount of data from men or a white population. If you're aware of that, then you can already apply certain corrections to ensure that bias does not end up in your model."

Arlette van Wissen

Does her work also spark interesting discussions at parties? "People sometimes still seem to think that this is a problem that will eventually solve itself. It won't, because it takes awareness to break the patterns. We must remain alert to the fact that we do not unconsciously capture biases in our code. If you don't do anything about it, bias can easily be reinforced in an algorithm. Everyone has a certain bias. So do I, whether I want to or not. The most important thing is to be aware of that and build certain checkpoints into your work to keep those biases out of the data and the models."

People sometimes still seem to think that this is a problem that will eventually solve itself. It won’t. If you don't do anything about it, biases can easily be reinforced in an algorithm.

Arlette van Wissen

Senior Data Scientist

In her current role, she can also express her fondness for the interaction between humans and AI again: "We quite often tend to see AI as the solution to everything. In our work, we see very clearly that AI provides us with tools that are very useful, but also bring their own challenges. It's not a holy grail, but rather something that is meant to support people, which we have to handle with care."

 

At Philips, we think it's important that people can be themselves, feel good about themselves and develop themselves. In the series Philips & Me, we look for colleagues who are doing something special in the field of Inclusiveness & Diversity, health and well-being or personal development.

 

Also read:
 
"If you keep developing yourself and feel good about yourself, you can be the best version of yourself", an interview with Suzanne Verzijden, Head of HR Benelux, about what actually makes people want to work at Philips.


Stephano Bel and ck Andrade founded a European Black Employee Resource Group; a safe place to be open and vulnerable about inclusivity and diversity - for everyone.

Deel op social media

  • https://www.philips.nl/a-w/about/news/archive/standard/about/news/articles/2021/20211207-we-moeten-vooroordelen-niet-meeprogrammeren.html Link gekopieerd

Onderwerpen

Contact

You are about to visit a Philips global content page

Continue

U kunt onze website het beste bekijken met de nieuwste versie van Microsoft Edge, Google Chrome of Firefox.