6 september 2017 732 woorden, 3 min. gelezen

Eerlijkheid en transparantie van de algoritmische aanbevelingssystemen

Door Pierre-Nicolas Schwab Gepromoveerd in marketing, directeur van IntoTheMinds
Op de laatste dag van de RecSys-conferentie 2017 had ik de eer lid te mogen zijn van het organiserend comité voor een speciale eendaagse sessie over eerlijkheid, verantwoordelijkheid en transparantie in aanbevelingssystemen (de naam van deze sessie was F.A.T.REC (Engels), […]

Op de laatste dag van de RecSys-conferentie 2017 had ik de eer lid te mogen zijn van het organiserend comité voor een speciale eendaagse sessie over eerlijkheid, verantwoordelijkheid en transparantie in aanbevelingssystemen (de naam van deze sessie was F.A.T.REC (Engels), wat staat voor fairness, accountability and transparency in recommendation systems”). Deze sessie, waaraan een dertigtal deelnemers deelnamen, was de eerste in zijn soort binnen de RecSys-gemeenschap. De conferentie is over het algemeen sterk op ‘technologie” gericht en Joe Konstan (Engels) een van de oprichters van Recsys, riep tijdens een plenaire sessie op om meer ruimte te besteden aan ethiek in de editie van 2018. Mickael Ekstrand, die de RecSys-conferentie 2018 in Vancouver zal voorzitten en die ik heb uitgenodigd voor de inaugurale Digityser-conferentie in Brussel, zal wellicht graag rekening houden met de wens van Joe.

Op basis van de gesprekken die we die dag voerden, leek het mij dat het principe van eerlijkheid in algoritmische aanbevelingssystemen beter moest worden gedefinieerd. Ik heb vaak het gevoel gehad dat de argumenten die werden uitgewisseld, hoewel zeer relevant, zeer afhankelijk waren van de context. Om de context van eerlijkheid beter te begrijpen, dacht ik aan drie vragen (zie hieronder), die volgens mij relevant zijn.

Wat betekent (on)eerlijkheid?

Oneerlijkheid mag niet worden verward met discriminatie, zoals Krishna Gummadi (Max Planck Institute for Software Systems) in haar presentatie al zei. Discriminatie is een bijzondere vorm van onrechtvaardigheid. Het woord ‘oneerlijkheid’ nauwkeurig definiëren is van essentieel belang om oplossingen voor het probleem te vinden.

Wat is het risico van oneerlijkheid?

De tweede vraag die je jezelf moet stellen is de mate van het risico dat verbonden is aan een zekere bepaalde ongelijkheid in de aanbevelingen. Er bestaat een groot verschil tussen een aanbevelingsdienst voor muziek en een aanbevelingsdienst voor een informatiesite.

Wat zijn de gevolgen van oneerlijke aanbevelingen voor een muziekabonnementsdienst als Spotify? In het slechtste geval wordt een liedje aanbevolen dat je niet mooi vindt en niet volledig beluistert. De gevolgen voor de gebruiker zijn dus beperkt. In het slechtste geval zal zijn ervaring en tevredenheid verminderen.

De gevolgen kunnen echter belangrijker zijn in de context van een nieuwssite, een sociaal netwerk, waar de gebruiker bepaalde informatie kan worden ontnomen of waar hij zelfs wordt blootgesteld aan een gepolariseerde mening.

Ik heb geprobeerd dit in onderstaande schema weer te geven:

Hoge mate van betrokkenheid van de gebruiker Weinig betrokkenheid van de gebruiker
Weinig controle
Weinig transparantie
Hoog risico op oneerlijkheid Middelmatig risico op oneerlijkheid
Veel controle
Hoge transparantie
Middelmatig risico op oneerlijkheid Laag risico op oneerlijkheid

 

Volgens dit schema is het risico op ongelijkheid het grootst in situaties waar de betrokkenheid van de consument groot is, d.w.z. in een context van bewuste besluitvorming. Informatie opzoeken op het internet, een belangrijke aankoopbeslissing nemen, het kiezen van een partner op een datingsite zijn voorbeelden van zeer betrokken contexten. Stel je voor dat je een nieuwe auto wilt kopen en je vertrouwt op een speciale website om de mogelijkheden te vergelijken en je te helpen een keuze te maken. Vooringenomen aanbevelingen in deze context zou belangrijke gevolgen hebben voor de gebruiker. Als deze laatste niet op de hoogte is van de aanwezigheid van een algoritmisch aanbevelingsmechanisme en er geen controle over heeft, is het risico op afwijking groot.

Het bekijken van een aanbevolen film op Netflix of het aanraden van een tegenspeler op een online game heeft slechts een laag risico op schade voor de gebruiker, zelfs als de aanbeveling bevooroordeeld is en er geen controle over het algoritme kan worden uitgeoefend. Als voorbeeld zei John Kolen van EA Games (Engels) op de RecSys -conferentie 2017 dat tegenspelers in online games worden gekozen door het algoritme om het plezier van de speler te maximaliseren. En geloof het of niet, het algoritme zal niet altijd een zwakke tegenstander kiezen om je te laten winnen. EA Games heeft sequenties vastgesteld (overwinningen, nederlagen,…) die het plezier maximaliseren. In sommige gevallen zal het algoritme een speler kiezen waartegen je zeker zal verliezen.

 

Is de gebruiker zich bewust van het effect van het algoritme?

Het laatste waarmee rekening moet worden gehouden, is het besef van de gebruiker van de aanwezigheid van een algoritmisch aanbevelingssysteem. Zoals in een studie al werd aangegeven, weten de meeste Facebook-gebruikers nog steeds niet dat wat ze op hun Facebook-feed zien het resultaat is van een algoritmische beslissing. Er moet dus een inspanning gedaan worden om transparantie te bereiken.



Posted in Diverse.

Plaats uw mening

Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *