Interview met Katleen Gabriëls

Katleen Gabriels is germanist en filosoof. Ze werkt sinds 2019 aan de universiteit van Maastricht waar ze opleidingsdirecteur is van de interdisciplinaire bacheloropleiding Digital Society, die sociale, humane en datawetenschappen samenbrengt.
In 2016 verscheen haar boek Onlife: Hoe de digitale wereld je leven bepaalt over de ethische aspecten van het Internet of Things. Drie jaar later verscheen de opvolger Regels voor robots. Ethiek in tijden van AI. Samen met de wiskundige Ann Dooms schreef ze in 2020 Van Melkweg tot Moraal.  

Technologie is niet neutraal

Technologie heeft ons leven de voorbije twintig jaar ingrijpend veranderd. Onze opvattingen over het delen van informatie zijn niet meer dezelfde, de grens van onze privacy is opgerekt.
Katleen Gabriels: “Ontwerpers van technologie hebben veel macht. En dus is het zaak om dat ontwerpen goed te doen, met inbreng vanuit verschillende disciplines en invalshoeken. Naast exacte wetenschappers moeten ook humane en sociale wetenschappers een plek krijgen in het ontwerpteam."

Misschien hebt u op YouTube het filmpje gezien van een zeepautomaat in een publiek toilet. Een zwarte man houdt zijn hand onder het toestel, er komt niets uit. Als hij een wit papieren doekje over zijn hand legt, krijgt hij wel zeep. De ‘racistische’ zeepautomaat is wellicht ontworpen door een team van louter witte mensen, die er niet bij stil hebben gestaan dat hij ook gebruikt zou worden door zwarte of gekleurde mensen. Het bewijst dat ontwerpen niet louter een kwestie van techniek is. Er komen ook ethische vragen bij kijken. En dat is net waar Katleen Gabriels in gespecialiseerd is.

Technologie en ethiek, het lijkt op het eerste gezicht geen voor de hand liggende combinatie.

In ons land is de aandacht voor die koppeling nog zeer nieuw. In de opleiding van ingenieursstudenten komt ethiek nog maar pas piepen. Nederland bijvoorbeeld staat al veel verder.

Hoe is uw aandacht voor dat onderwerp gegroeid?

Ik ben germanist en filosoof. Tijdens mijn opleiding moraalwetenschappen aan de UGent was Second Life, de driedimensionale virtuele wereld, een hype. Ik was meteen geïntrigeerd. Ik vroeg me af wie je wordt of bent in die virtuele wereld en hoe dicht dat bij je eigen identiteit staat, maar ook hoe moraliteit in die wereld wordt gereguleerd. Ik heb mijn masterthesis gedaan over morele emoties in Second Life. Daarna volgde een doctoraatsstudie aan de VUB over moraliteit in sociale virtuele werelden. Er ging een wereld voor me open want er bleek al heel veel werk en onderzoek gebeurd te zijn over computerethiek, AI ethiek en -filosofie.

Van techniek en technologie denken we dat ze neutraal zijn. Dat uitgangspunt is onterecht?

Ja. Om dat duidelijk te maken, verwijs ik graag naar de spijtoptanten. Dat zijn mensen die met hun ontwerp de maatschappij ingrijpend hebben veranderd en daar nu spijt van hebben. De kop boven een interview met Tony Fadell, de man die mee de iPod en iPhone heeft ontwikkeld, was: “Ik word soms badend in het zweet wakker.”
Hij zegt dat ze bij het ontwerp van de iPhone de grote fout hebben begaan om die voor zichzelf te maken. Voor twintigers zonder kinderen. Als getrouwde veertiger met drie tienerkinderen kijkt hij er heel anders tegenaan, het gebruik van de iPhone is een punt van discussie met zijn kinderen. Hij voelt zich mee verantwoordelijk voor alle spanningen in zoveel gezinnen. Hij pleit nu met anderen voor een eed van Hippocrates voor ontwikkelaars: ik zal geen schade toebrengen.

Of neem Tim Berners-Lee, de man die samen met de Belg Robert Cailliau aan het CERN het wereldwijde web heeft helpen ontwikkelen. Hij vindt dat de grote spelers veel te veel macht over gegevens naar zich toetrekken en werkt nu aan het platform Solid, een ander type internet waar een gebruiker veel meer zeggenschap heeft over zijn data. Wat die verhalen van spijtoptanten aantonen, is dat ontwerpers van technologie veel macht hebben.

En de maatschappij echt kunnen veranderen?

Absoluut, je ziet dat door technologie normen en waarden verschuiven. Onze opvattingen over het delen van informatie bijvoorbeeld zijn de voorbije twintig jaar ingrijpend veranderd. De grens tussen privé en publiek is gewijzigd. Mensen checken bijvoorbeeld in op sociale media bij begrafenissen of op de spoedafdeling van het ziekenhuis, ze laten weten dat ze daar zijn.
Ons gedrag in de nabijheid van anderen is niet hetzelfde als twintig jaar geleden, we worden voortdurend afgeleid door onze telefoon. Technologie is niet neutraal. Nu zijn veel apps zo ontworpen en opgebouwd dat ze onze aandacht vragen, dat heet distraction by design. In die aandachtseconomie betalen we met onze tijd en onze aandacht. Hoe langer we op zo’n platform doorbrengen, hoe meer data er verzameld worden.
Mensen staan er niet bij stil dat er gebruik wordt gemaakt van cognitieve valkuilen. Op YouTube is een filmpje afgelopen en het volgende start meteen, je hebt geen tijd om na te denken. Bij Facebook zijn er de notifications die in het rood worden aangegeven of de tijdslijn waarin je eindeloos kunt scrollen.

Ligt een deel van de verantwoordelijkheid ook niet bij de gebruiker van de technologie?

Er is uiteraard een individuele verantwoordelijkheid, maar je moet vooral naar de bredere context kijken. Ik vergelijk het vaak met overgewicht. Dat is niet enkel een individueel probleem, je moet ook kijken naar het gezin en de woonplaats, naar de industrie die te veel suiker verwerkt in allerlei voedingswaren, naar de marketing voor ongezonde producten.
Hetzelfde geldt voor het gebruik van technologie. Heel veel platformen en apps zijn ontwikkeld om onze aandacht vast te houden. Bedrijven denken op basis van wetenschappelijk-psychologische inzichten na over hoe mensen ertoe kunnen worden gebracht om zo lang mogelijk op het platform te blijven, dat is een structurele ontwerpkeuze. De grote spelers moeten daar veel harder op aangesproken worden. Een schermtijdmeter zoals bij de iPhone stelt niets voor, het ontwerp van apps en onlineplatformen moet gewoon anders. De morele verantwoordelijkheid van de ontwerper is te lang onder de mat geveegd.

Hoe kunnen we tot goede, betere technologie komen?

Het ontwerpen van technologie moet interdisciplinair gebeuren, vanuit verschillende invalshoeken en inzichten. Dat is niet louter een zaak van de filosofie, je komt ook al snel uit bij politiek en regulering. De zelfregulering waar politici veel te lang op hebben gehoopt, werkt niet want uiteindelijk is het de grote spelers te doen om winst en de aandeelhouders.

Over algoritmes is veel te doen, als de zwarte doos die beslissingen neemt zonder dat iemand kan zeggen hoe die tot stand zijn gekomen. Hoe verklaart u de macht die we eraan toekennen?

We zien vaak wat we moral disengagement noemen. We gebruiken allemaal dagelijks mechanismen om afstand te doen van onze morele verantwoordelijkheid. Je hoort bijvoorbeeld vaak “iedereen doet het”: als iedereen verantwoordelijk is, voel je je individueel niet meer verantwoordelijk. We delegeren ook graag onze verantwoordelijkheid. De valkuil met algoritmes is dat we zeggen: de computer heeft beslist, niets aan te doen. Als ik bijvoorbeeld mijn woning niet wil verhuren aan iemand met een andere huidskleur, dan kun je me terecht van racisme betichten. Als ik die beslissing via een ingewikkelde constructie uitbesteed aan een algoritme kan ik zeggen dat de computer heeft beslist en de verantwoordelijkheid van me afduwen.

Wat kunnen we daaraan doen?

We moeten heel kritisch kijken naar algoritmes. Veel mensen denken dat algoritmes wiskunde zijn, maar dat zijn ze niet. Cathy O’Neil noemt ze opinie ingebed in code. Je kunt er heel hard mee sturen. Het minste wat we kunnen vragen is transparantie.
Als een algoritme een keuze maakt met een belangrijke impact op je leven, heb je het recht te weten hoe het tot die keuze is gekomen. Als bijvoorbeeld je lening wordt geweigerd, heeft dat grote gevolgen en dan moet je inzage hebben in hoe het algoritme tot beslissingen komt en met welke data het wordt gevoed.

Dat veronderstelt wel dat bedrijven die inzage geven.

Dat is inderdaad een probleem. We weten nog altijd niet hoe de zoekmachine van Google of de tijdlijn van Facebook werkt. In Nederland hebben algoritmes een belangrijke rol gespeeld in de recente toeslagenaffaire. Daarbij is ingegaan tegen de Europese verordening inzake gegevensbescherming, de GDPR. De oorzaak voor de affaire is deels terug te brengen tot het niet transparante gebruik van een algoritme. Er moet dus absoluut veel meer openheid komen.

Aan de ontwikkelkant van technologie ligt de sleutel echt in de interdisciplinariteit. Discriminatie in algoritmes wordt vaak veroorzaakt door ontwikkelaars die niet voldoende buiten hun eigen leefwereld denken of algoritmes trainen met beperkte datasets.
Ze moeten erover waken dat mensen niet uit de boot vallen omwille van bijvoorbeeld gender of huidskleur. Je hebt dus mensen nodig die vanuit verschillende invalshoeken meekijken.

De beleidskant is een ander probleem. Veel beleidsmakers komen uit de humane en sociale wetenschappen, en hebben weinig kaas gegeten van de werking van technologie. Ze geloven te veel wat de bedrijven en hun marketingmachine zeggen en uitrollen. Ook de politiek moeten we op dat vlak zeer kritisch bekijken.

U pleit voor een gedragscode voor professionals en bedrijfsleiders?

Er bestaan al codes, maar er worden te weinig gevolgen en sancties gekoppeld aan slecht gedrag. Met een charter zoals het Contract for the Web van Tim Berners-Lee komen we er niet. Facebook en Google waren er als de kippen bij om dat te ondertekenen, als een soort van window dressing. Een gedragscode moet echt de cultuur doorbreken van het overschrijden van ethische grenzen.

Wat kunnen burgers doen om de mogelijke valkuilen van technologie beter te begrijpen?

Mediawijsheid is zeer belangrijk. Het Vlaams Kenniscentrum Mediawijsheid levert fantastisch, maar helaas nog te weinig gekend werk. Onderwijs is een sleutel. Ik ben voorstander van mediawijsheid vanaf de kleuterklas. Kleuters kunnen nog niet lezen of schrijven maar op YouTube worden ze wel al geconfronteerd met reclame.

Meer algemeen moet ons onderwijs veel meer interdisciplinair worden, van de lagere school tot de universiteit. Zeker in België heb je nog de silo’s van humane, sociale en exacte wetenschappen, terwijl de kracht in het interdisciplinaire zit, het leren van elkaar.

Wilt u weten hoe KBC met uw privacy omgaat? Lees dan zeker dit artikel.

Maak kennis met KBC Private Banking & Wealth
Inschrijven op onze nieuwsbrief
ID/ Lieven Van Assche

U mag dit nieuwsbericht niet beschouwen als een beleggingsaanbeveling of als advies.