Verdien geld door onze enquêtes te beantwoorden

Schrijf u nu in !
De blog van het marketing agentschap IntoTheMinds
Marktonderzoek en ondernemers coaching

Eerlijkheid en transparantie van de algoritmische aanbevelingssystemen

Verdien tot 50€ door deel te nemen aan een van onze betaalde marktonderzoeken.

Schrijf u nu in !

Op de laatste dag van de RecSys-conferentie 2017 had ik de eer lid te mogen zijn van het organiserend comité voor een speciale eendaagse sessie over eerlijkheid, verantwoordelijkheid en transparantie in aanbevelingssystemen (de naam van deze sessie was F.A.T.REC (Engels), wat staat voor fairness, accountability and transparency in recommendation systems”). Deze sessie, waaraan een dertigtal deelnemers deelnamen, was de eerste in zijn soort binnen de RecSys-gemeenschap. De conferentie is over het algemeen sterk op ‘technologie” gericht en Joe Konstan (Engels) een van de oprichters van Recsys, riep tijdens een plenaire sessie op om meer ruimte te besteden aan ethiek in de editie van 2018. Mickael Ekstrand, die de RecSys-conferentie 2018 in Vancouver zal voorzitten en die ik heb uitgenodigd voor de inaugurale Digityser-conferentie in Brussel, zal wellicht graag rekening houden met de wens van Joe.

Op basis van de gesprekken die we die dag voerden, leek het mij dat het principe van eerlijkheid in algoritmische aanbevelingssystemen beter moest worden gedefinieerd. Ik heb vaak het gevoel gehad dat de argumenten die werden uitgewisseld, hoewel zeer relevant, zeer afhankelijk waren van de context. Om de context van eerlijkheid beter te begrijpen, dacht ik aan drie vragen (zie hieronder), die volgens mij relevant zijn.

Wat betekent (on)eerlijkheid?

Oneerlijkheid mag niet worden verward met discriminatie, zoals Krishna Gummadi (Max Planck Institute for Software Systems) in haar presentatie al zei. Discriminatie is een bijzondere vorm van onrechtvaardigheid. Het woord ‘oneerlijkheid’ nauwkeurig definiëren is van essentieel belang om oplossingen voor het probleem te vinden.

Wat is het risico van oneerlijkheid?

De tweede vraag die je jezelf moet stellen is de mate van het risico dat verbonden is aan een zekere bepaalde ongelijkheid in de aanbevelingen. Er bestaat een groot verschil tussen een aanbevelingsdienst voor muziek en een aanbevelingsdienst voor een informatiesite.

Wat zijn de gevolgen van oneerlijke aanbevelingen voor een muziekabonnementsdienst als Spotify? In het slechtste geval wordt een liedje aanbevolen dat je niet mooi vindt en niet volledig beluistert. De gevolgen voor de gebruiker zijn dus beperkt. In het slechtste geval zal zijn ervaring en tevredenheid verminderen.

De gevolgen kunnen echter belangrijker zijn in de context van een nieuwssite, een sociaal netwerk, waar de gebruiker bepaalde informatie kan worden ontnomen of waar hij zelfs wordt blootgesteld aan een gepolariseerde mening.

Ik heb geprobeerd dit in onderstaande schema weer te geven:

Hoge mate van betrokkenheid van de gebruiker Weinig betrokkenheid van de gebruiker
Weinig controle
Weinig transparantie
Hoog risico op oneerlijkheid Middelmatig risico op oneerlijkheid
Veel controle
Hoge transparantie
Middelmatig risico op oneerlijkheid Laag risico op oneerlijkheid

 

Volgens dit schema is het risico op ongelijkheid het grootst in situaties waar de betrokkenheid van de consument groot is, d.w.z. in een context van bewuste besluitvorming. Informatie opzoeken op het internet, een belangrijke aankoopbeslissing nemen, het kiezen van een partner op een datingsite zijn voorbeelden van zeer betrokken contexten. Stel je voor dat je een nieuwe auto wilt kopen en je vertrouwt op een speciale website om de mogelijkheden te vergelijken en je te helpen een keuze te maken. Vooringenomen aanbevelingen in deze context zou belangrijke gevolgen hebben voor de gebruiker. Als deze laatste niet op de hoogte is van de aanwezigheid van een algoritmisch aanbevelingsmechanisme en er geen controle over heeft, is het risico op afwijking groot.

Het bekijken van een aanbevolen film op Netflix of het aanraden van een tegenspeler op een online game heeft slechts een laag risico op schade voor de gebruiker, zelfs als de aanbeveling bevooroordeeld is en er geen controle over het algoritme kan worden uitgeoefend. Als voorbeeld zei John Kolen van EA Games (Engels) op de RecSys -conferentie 2017 dat tegenspelers in online games worden gekozen door het algoritme om het plezier van de speler te maximaliseren. En geloof het of niet, het algoritme zal niet altijd een zwakke tegenstander kiezen om je te laten winnen. EA Games heeft sequenties vastgesteld (overwinningen, nederlagen,…) die het plezier maximaliseren. In sommige gevallen zal het algoritme een speler kiezen waartegen je zeker zal verliezen.

 

Is de gebruiker zich bewust van het effect van het algoritme?

Het laatste waarmee rekening moet worden gehouden, is het besef van de gebruiker van de aanwezigheid van een algoritmisch aanbevelingssysteem. Zoals in een studie al werd aangegeven, weten de meeste Facebook-gebruikers nog steeds niet dat wat ze op hun Facebook-feed zien het resultaat is van een algoritmische beslissing. Er moet dus een inspanning gedaan worden om transparantie te bereiken.

Author: Pierre-Nicolas Schwab

Pierre-Nicolas is de directeur van de marketing agentschap IntoTheMinds. Hij heeft speciaal interesse voor e-commerce, retail, HoReCa en supply-chain projecten. Hij is ook een onderzoeker aan de Vrije Universiteit Brussel en werkt ook als coach voor meerde publieke organisaties. Hij verwelkomt Linkedin uitnodigingen : gelieve gewoon een paar woorden toe te voegen en uit te leggen waarom U wilt connecteren.

Share This Post On

Submit a Comment

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *