Het gebruik van Big Data mag niet leiden tot uitsluiting van mensen op basis van geloof, ras of sekse. Bedrijven die Big Data gebruiken, zoals banken, verzekeringsmaatschappijen en kredtietverleners moeten ethische standaarden opstellen en hanteren om dergelijke praktijken uit te sluiten.

Dat zegt de Amerikaanse toezichthouder FTC in een heel interessant rapport over deze ethische kwestie. De FTC zegt streng te willen handhaven.

In Nederland uitsluiting al gangbare praktijk

In Nederland kennen we al voorbeelden van uitsluiting en discriminatie op grond van informatie die gewonnen kan worden uit Big Data. Zo is er in het verleden ophef geweest over een actie van ING, dat zijn premies van woonverzekeringen koppelde aan het postcodegebied waarin iemand leeft.

Er zijn namelijk datasets verkrijgbaar waarin de sociale status van een postcodegebied kan worden bepaald, zoals het gemiddelde inkomen, de misdaad, het aantal procenten inwoners met niet-Westerse achtergrond et cetera. Zo kregen inwoners van Delftshaven in Rotterdam zelfs helemaal geen woonverzekering van ING omdat zij leven in een achterstandswijk.

Negeer bepaalde analyses

De FTC gebruikt een ander voorbeeld: het koppelen van verschillende datasets leidde tot de conclusie dat naarmate iemand verder weg woont van zijn werk, hij minder lang bij zijn werkgever blijft. Maar dat gaf een bedrijf direct aanleiding dergelijke informatie niet meer te gebruiken, omdat dat ook te koppelen is aan de mogelijke raciale achtergrond van sollicitanten, zegt de FTC, vanwege de kenmerken van sommige wijken in de stad waarin dat bedrijf opereerde.

De FTC voert aan dat slechte data leidt tot slechte uitkomsten van data-analyse en dat brengt met zich mee dat mensen kunnen worden uitgesloten van diensten zonder dat daar een goede reden voor is. Het probleem is dan dat het bedrijf niet door heeft dat het onterecht mensen uitsluit of meer laat betalen omdat niet wordt gekeken naar de onderliggende data en het analyseproces, maar alleen naar de uitkomsten.