welzijn & zorg

Technologie maakt tijd vrij voor zorg

Lode Lauwaert over de toekomst van artificiële intelligentie
24.03.2023
Foto's
Jan Locus

De chatbot ChatGTP veroorzaakte begin dit jaar heel wat deining. Mensen leken niet meer nodig om brieven en rapporten te schrijven. Artificiële intelligentie (AI) lijkt bedreigend. En wat zal er gebeuren als AI doorbreekt in de zorg? Techniekfilosoof Lode Lauwaert weegt de kansen en bedreigingen af.

Lode Lauwaert doceert techniekfilosofie aan de KU Leuven. Hij zoekt met andere woorden naar de betekenis van techniek en haar verhouding met de samenleving. Het is een onuitputtelijk onderwerp in onze hoogtechnologische samenleving. Over enkele van de meest in het oog springende ontwikkelingen schreef Lauwaert het fascinerende boek Wij, robots. Een filosofische blik op technologie en artificiële intelligentie. Het centrale punt van Lauwaert is helder: we hebben goeie redenen om van AI gebruik te maken, maar we moeten ons ook bewust zijn van de nadelen. “Meer nog dan andere technologen moeten de ontwikkelaars van autonome AI goed nadenken over de mogelijke onwenselijke effecten die uit de beslissingen van de algoritmen in de rechtspraak of medische wereld kunnen voortvloeien.”

Niet iedereen heeft evenveel kennis over spitstechnologie of ziet de voordelen ervan in. In uw boek behandelt u een aantal vooroordelen en dillema’s die ook voor de zorg- en welzijnssector kunnen gelden.

Lode Lauwaert (KU Leuven): “De zorg is niet de achtergrond van het boek. Het is wel mijn persoonlijke achtergrond. Voor mijn studie filosofie heb ik eerst (klinische) psychologie gestudeerd, maar het uitgangspunt van het boek was anders. Ik wilde tonen dat AI aan een opmars bezig is in vele delen van onze wereld. De uitdagingen, voordelen en problemen van AI die ik schets, komen in alle sectoren terug. Ik heb wel bewust een aantal voorbeelden uit de medische wereld en de zorgsector opgenomen. De medische sector is een van de belangrijkste sectoren in onze samenleving en er heerst, minstens ten dele, terecht een kritische houding tegenover technologie en AI in het bijzonder.”

Hoe bepaalt je eigen kennis over psychologie je visie op AI?

“Zo goed als niet. Mijn visie op AI is vooral filosofisch, en dan meer specifiek normatief ethisch. Ik probeer met andere woorden te onderzoeken wat we moeten doen in concrete, praktische situaties. Ik wil erop wijzen dat er zowel morele voordelen als gevaren vasthangen aan AI, en dit voor alle sectoren. Mijn interesse voor techniekfilosofie is intussen een kleine tien jaar oud. Ik merkte dat er een behoefte bestond aan een ethisch debat over technologie en AI. Ik wil weten wat de meest wenselijke vorm van AI is die we kunnen ontwikkelen. Wat zijn de risico’s?”

Verschilt de betekenis van de vragen rond AI van sector tot sector? Je hebt het in je boek over verschillende belangen die bij de introductie van AI in conflict komen met elkaar, nauwkeurigheid en privacy bijvoorbeeld. Hoe verschilt in dit opzicht het bedrijfsleven van de welzijnszorg?

“Intuïtief zijn we geneigd om te zeggen dat AI en ethiek in de eerste plaats belangrijk zijn voor de zorgsector. Begrijpelijk, want in de zorg werken we face to face met mensen. Als je AI inzet bij de behandeling  van angst en depressie, dan heb je heel concrete effecten. Niettemin denk ik dat de vragen rond AI en ethiek minstens even gewichtig zijn buiten de zorgsector, en misschien zelfs nog meer. AI wordt gebruikt bij heel uiteenlopende thema’s, van klimaatbescherming tot terreurbestrijding, en door multinationals van Starbucks tot Amazon. Bij alle beslissingen over AI in die domeinen zijn er concrete gevolgen voor mensen, groepen, en het milieu.”

“Uiteraard moet men ook in de medische sector nadenken over een goed gebruik van AI. Maar de urgentie in andere sectoren is niet minder groot. Wat me wel opvalt, is dat ik nauwelijks of geen vragen over AI krijg uit softere sectoren, zoals de zorg. Vooral de bedrijfswereld klampt me aan om raad te geven en van gedachten te wisselen. Een van de mogelijke redenen van het verschil zou kunnen zijn dat er in de zorgsector al meer vertrouwdheid bestaat met ethische vragen. Maar mogelijk leven er ook vooroordelen tegen technologie en AI in het bijzonder.”

Heb je daar concrete aanwijzingen voor?

“Tijdens lezingen hoor ik altijd de bezorgdheid dat machines geen beslissingen over mensen mogen nemen. ‘We gaan nog altijd met mensen om.’ Misschien is de argwaan in de zorgsector groter. De doelgroep is ook verschillend. CEO’s hebben andere doelstellingen en inzichten dan zorgverleners, voor wie het verhogen van het economisch rendement helemaal niet op de eerste plaats komt.”

Misschien leeft er in de zorg een ander aanvoelen van privacy dan in het bedrijfsleven?

“AI brengt privacyrisico’s met zich mee, maar in het bedrijfsleven zijn die risico’s even gewichtig als in de zorg. Privacy in de medische sector is uiteraard bijzonder kwetsbaar. Stel dat je een HIV-patiënt bent en je patiëntengegevens worden gebruikt om AI-systemen te trainen. Als er dan een datalek ontstaat, dan ben je als patiënt heel kwetsbaar voor misbruik en chantage.”

Hoe zou je AI-toepassingen in de zorg kunnen gebruiken?

“Je zou chatbots kunnen gebruiken om mensen op te volgen die met mentale problemen kampen. AI zou je ook kunnen inzetten om angststoornissen of depressie te detecteren of te voorspellen. AI-systemen worden dan getraind met gesprekken tussen patiënten en zorgverleners, zodat er verbale patronen en verbanden tussen woorden en zinnen kunnen opduiken. Die kunnen nuttig zijn om bepaalde mentale problemen in een vroeg stadium te kunnen aanpakken of zelfs voor te zijn. Je kan AI-systemen ook voeden met data over non-verbale signalen. Mensen met depressie geven met hun lichaamstaal aan dat ze het moeilijk hebben. Het gaat dan om signalen die vaak ontsnappen aan menselijke observatie, maar die je via een camera wel op het spoor zou kunnen komen. Zo’n toepassing zou preventief kunnen werken. Hierdoor komt ook tijd vrij die ze aan andere patiënten kunnen besteden, of voor nog betere zorgverlening. Op curatief vlak bestaan de toepassingen al, bijvoorbeeld in de vorm van virtual reality-brillen. Ze worden gebruikt om patiënten te leren omgaan met angststoornissen of fobieën.”

Hoe efficiënt kan een chatbot zijn in een zorgcontext?

“Ik kan me best inbeelden dat een chatbot positieve effecten heeft op de behandeling van patiënten. De eerste chatbot bestond al in de jaren zestig, het fameuze ELIZA-programma geschreven door computerwetenschapper Joseph Weizenbaum. We kennen allemaal situaties uit het dagelijkse leven waarbij we problemen van ons afschuiven door erover te praten, zonder dat er iemand reageert. Je kan met een huisdier praten of met een wildvreemde die je niet kent en alleen knikt. Je kan problemen ook van je af sporten. Dan gebruik je ook geen woorden. Er zijn dus meerdere redenen op te geloven in een helend effect van chatbots.”

“Is er zo’n groot verschil tussen je gemoed luchten tegen een chatbot, te biechten gaan en psychoanalytische therapie volgen? Ik sta erg kritisch tegenover de psychoanalytische theorie, maar de therapie werkt aantoonbaar wel. De patiënt ziet de analyticus niet wanneer hij of zij vertelt. De analyticus zegt ook amper iets. En toch kan zo’n sessie helend zijn. Ook daar is er geen persoonlijke interactie. Psychoanalytische therapie heeft iets afstandelijks en onpersoonlijks. Die afstand heb je ook bij een chatbot. AI vormt hier geen breuk met het verleden. Er is dus een continuüm tussen een chatbot, te biechten gaan en de psychoanalytische praktijk.”

“Ik zie veel domeinen in de zorg waar je goeie redenen hebt om in te zetten op AI. Meer administratieve, repetitieve handelingen kunnen overgenomen worden door AI. We weten dat AI op die punten vaak beter en secuurder werkt dan mensen. Een AI-systeem zou relevante gegevens van dossiers kunnen verzamelen, aanvullen en vergelijken met andere. Dat administratieve werk kan geautomatiseerd worden. Mogelijk gaat dit gepaard met jobverlies, maar dan kunnen er meer mensen ingezet worden voor taken waarbij AI geen rol mag of kan spelen.”

Die mogelijke tijdwinst geldt niet alleen voor de zorgsector.

“Met bijvoorbeeld ChatGTP kan je heel veel tijd uitsparen, bijvoorbeeld bij heel praktische en normaal gezien erg tijdrovende handelingen zoals het uitschrijven van vacatures. Die tijd kan je besteden aan meer kwaliteitsvolle opdrachten.”

Kan AI in de zorg ook bijdragen aan kwalitatieve vooruitgang?

“Zeker, bij het ontwikkelen van geneesmiddelen bijvoorbeeld. AI kan de ontwikkeling beter en sneller laten verlopen. We weten dat mensen vandaag steeds resistenter zijn tegen bacteriën. Dankzij AI kunnen we de chemische structuur van bacteriën onderzoeken en nieuwe medicijnen ontwikkelen. Het zou kunnen dat menselijke vermogens niet volstaan om zover te gaan. Je kan AI daarnaast ook inzetten bij de opvolging van het medicijnengebruik door patiënten.”

De toepassing van AI veronderstelt ook dat zorgpersoneel goed wordt opgeleid. Het ombouwen van protocollen en therapieën neemt ook tijd in beslag. Zijn we vertrokken voor een lange transitieperiode?

“Dat zou wel eens mee kunnen vallen. Sociale media hebben er maar tien jaar over gedaan om ons volledig in te pakken. De voordelen van AI zijn zo groot dat we er belang bij hebben om toepassingen te zoeken. Maar het gevaar is wel dat die ontwikkeling van bovenaf wordt opgelegd. Uit onderzoek weten we dat AI-systemen stagneren als ze botsen met de overtuigingen van de mensen voor wie ze zijn bedoeld. Je kan hele goede redenen hebben om AI te introduceren op de werkvloer, maar als dit niet gedragen worden door de werknemers, dan heb je een probleem. Onderzoek en ontwikkeling zijn dus essentieel, maar even belangrijk is dat je peilt naar de opvattingen van de gebruikers voor wie een AI-systeem bedoeld is. Als overheid en bedrijf is het belangrijk dat je de medewerkers vertrouwd maakt met de voor- en nadelen van de technologie. Bewustwording volstaat niet. Je moet mensen informeren en scholen. In diverse opleidingen, van geneeskunde tot psychologie, moet je mensen trainen om gebruik te maken van AI in de gezondheidszorg.”

“In mijn eigen beroep maak ik als docent ingenieurs bewust van de ethische benadering van AI. Het moet dus ook bottom-up gaan. Als artsen, boekhouders, zorgverleners en ingenieurs er de voordelen niet van zien, dan zal AI niet werken.”

AI is geen wonderoplossing omdat het de bestaande problemen niet oplost, schrijf je.

“Ik ben duidelijk een techno-optimist. De mens is de meest succesvolle soort in de evolutie. En dat heeft veel te maken met technologie, en AI draagt de belofte in zich om ons nog meer vooruit te helpen. Maar AI kan natuurlijk nooit alle problemen oplossen, en bovendien kan slimme technologie heel wat bestaande problemen reproduceren. Het is belangrijk dat ingenieurs dat beseffen. Het vertekenen van de werkelijkheid, bias genaamd, is in dat opzicht een van de belangrijkste aandachtspunten.

“Bias in een medische context wordt vaak op meerdere manieren begrepen. De statistische opvatting is de volgende: dat je steekproef niet representatief is voor de populatie. Er is ook een ethische invulling van bias: het ongelijk behandelen van groepen mensen op grond van irrelevante kenmerken, zoals huidskleur, leeftijd of levensbeschouwing. Discriminatie dus. Als je je daar niet van bewust bent, dan bestaat het gevaar dat het AI-systeem de bestaande discriminatie overneemt.”

“Het bekendste voorbeeld is Amazon dat AI gebruikte bij het screenen van cv’s . Vrouwen werden niet weerhouden. De reden was dat het AI-systeem getraind was met de cv’s van mannen die in het verleden succesvol solliciteerden bij het pakjesbedrijf. Nog een Amerikaans voorbeeld: AI in een dermatologische context, meer bepaald het detecteren van huidkanker. Het AI-systeem in kwestie werd getraind met foto’s van geboortevlekken, kwaadaardige en niet-kwaadaardige melanomen. Geweldig medische vooruitgang natuurlijk, omdat we weten dat AI-systemen veel accurater zijn in het voorspellen van kanker dan mensen. AI-systemen kunnen dus een betrouwbare medische assistent zijn. Tegelijkertijd zat er in het Amerikaanse voorbeeld een enorme bias: het systeem was getraind met foto’s van witte mensen. Mensen van kleur zaten niet in het systeem, met als gevolg dat er vals negatieve resultaten opdoken. Mensen men een donkere huidskleur werden niet ‘gezien’ door het systeem. De ingenieurs hadden geen slechte bedoelingen, maar de gevolgen van hun beslissing waren wel rampzalig. Je moet je dus bewust zijn van het gevaar van bias. Ook ziekenhuizen en zorgverstrekkers moeten weten dat het gevaar op bias bestaat.”

Bias is toch niet beperkt tot AI?

“Onrechtvaardigheid komt overal voor. Als je een AI-systeem niet blijft trainen, dan zal het wellicht sommige groepen minder goed herkennen. Bias speelt ook op crosscultureel vlak. Veel wetenschap gebruikt bij onderzoek een steekproef van hoogopgeleide witte dertigers en veertigers. Daardoor is je onderzoek niet representatief. Veel AI-systemen worden getraind met data over mensen aan de westkust van de Verenigde Staten. Als je er een karikatuur van maakt, dan gaat het hier om liberale dertigers en veertigers met een milkshake in de ene en een pingpongpallet in de andere hand. Stel dat je die groep gebruikt om via een AI-systeem depressie op te sporen. Dan kan de indruk ontstaan dat de vorm van depressie waar die ene groep mee wordt geconfronteerd universeel is. En dat is uiteraard niet zo. Depressie vertoont crossculturele variatie, dat geldt bijvoorbeeld ook voor autisme. Hoogopgeleiden spreken anders over depressie dan laagopgeleiden. Uit onderzoek weten we dat hoogopgeleiden sterk gemedicaliseerd spreken over depressie, omdat ze beter zijn geïnformeerd. In andere culturen zal men dan weer meer lichamelijke en minder verbale signalen tonen. Ingenieurs moeten bij hun AI-ontwerp beseffen dat de westerse bevolking slechts een heel klein deel van de wereldbevolking behelst.”

Wat als het gebruik van technologie mee de mentale gezondheid bepaalt? Wat bijvoorbeeld met de aanwijzingen dat sociale media mentale problemen bij jongeren versterken?

“Er is inderdaad onderzoek dat besluit dat bepaalde aspecten van sociale media allerlei mentale problemen kunnen veroorzaken versterken. Niettemin wil ik er wel op wijzen dat het bijzonder moeilijk is een causaal verband tussen beide te leggen. Het is ten eerste niet omdat twee zaken na elkaar volgen dat het eerste de oorzaak van het tweede is. Als ik eerst sport en daarna goed werk, is het niet per se zo dat ik goed werk omdat ik eerste sportte. Daarnaast is niet elke correlatie tussen twee zaken ook meteen van oorzakelijke aard. Denk aan dit: hoe meer ijsjes worden gegeten, hoe meer er wordt gemoord. Dat is duidelijk een verband, maar er bestaat natuurlijk geen oorzakelijke band tussen beide – die correlatie heeft alles met de temperatuur te maken. Hetzelfde geldt voor sociale media en mentale problemen. We mogen niet de redeneerfout maken dat mentale problemen voortkomen uit sociale media, louter en alleen omdat ze erop volgen, of omdat veel gebruik van sociale media gepaard zou gaan met meer mentale issues.

Tot slot nog dit. We weten uit onderzoek uit de psychologie dat armoede een belangrijke rol speelt in het ontstaan van bepaalde problemen. Bovendien weten we dat procentueel het aantal armen in de wereldbevolking de laatste 200 jaar flink is afgenomen, door de geweldig toegenomen welvaart door onder meer geweldig geavanceerde technologie. Ik denk met andere woorden dat we duidelijk niet in een door en door ziekmakende neoliberale ziekmakende samenleving leven.”

>> Lode Lauwaert, Wij, robots. Een filosofische blik op technologie en artificiële intelligentie, LannooCampus, 2021, 306 p. ISBN 9789401470544 | € 29,99