Als algoritmen worden ingezet, is dat vaak gebaseerd op historische of onvolledige data. Hoe kunnen we voorkomen dat zulke systemen bijdragen aan meer ongelijkheid?
Van de negen hoofdstukken, heb je er al drie afgerond. Ga zo door! Aan het einde van de cursus krijg je een certificaat van deelname. In dit hoofdstuk staan eerlijke en oneerlijke algoritmen centraal.
Al-go-wattuh?
Het woord algoritme komt van meneer Al-Khwārizmī... een Perzische wiskundige die in de negende eeuw een boek schreef over het uitvoeren van berekeningen. Dit was dus láng voordat we ze ook in computers gingen gebruiken.
Vandaag de dag worden algoritmen bijna overal gebruikt.
Van het luisteren naar playlists op Spotify tot en met het navigeren via Google Maps... zonder algoritmen was dat allemaal niet mogelijk.
En als Spotify eens een verkeerd liedje suggereert
Of dat je een keer door Google Maps moet omrijden, is niet erg. Maar als een algoritme in de zorg een fout maakt, kan dat grote gevolgen hebben.
Laten we daarom eens kritisch kijken naar zulke systemen.
En dat doen we samen met prof. Sennay Ghebreab. Hij is verbonden aan ICAI... het Innovation Center for AI.
Maak kennis met Sennay
ICAI heeft de ambitie om de ontwikkelingen rondom AI te versnellen én in goede banen te leiden.
Big data, bigger data
De meeste algoritmen worden ingezet om data te analyseren. Dat noemen we data-gedreven AI.
Valkuilen en onbewuste discriminatie
Maar daar zit hem ook de uitdaging. Want als de data over iemand niet kloppen, of onvolledig zijn, kan een AI-systeem niet goed zijn werk doen. Mensen worden dan ongelijk, of onheus behandeld.
Wacht eens even!
Er wordt toch altijd gezegd dat er data nodig zijn om een objectieve beslissing te nemen?
Dat klopt. Maar bij het verkrijgen of verwerken van de data kunnen dingen over het hoofd gezien worden.
We spreken dan over 'bias' in de data.
Sennay legt uit hoe ongelijkheid in datasets terecht kan komen.
-
-
Maar wat is dan precies het probleem?
Laten we eens kijken. Klik op de begrippen om verder te lezen.
Collection Bias
Naast het gebruik van historische data, zijn er nog meer aandachtspunten volgens Sennay.
Bewust of onbewust?
Sennay introduceert in deze video het begrip 'red lining'.
Tijd voor een voorbeeld...
Toen een makelaar nieuwe huizen wilde verkopen in een 'hippe' buurt, besloot hij online advertenties bij Facebook in te zetten. Maar bij het instellen van de campagne maakte hij een bijzondere keuze.
Dit was reden voor een aantal ouderen om naar de rechter te stappen.
Zij vonden het heel vervelend (en onrechtvaardig) dat zij niet de kans hadden gekregen om zich in te schrijven voor de nieuwe woningen. Ze beriepen zich op het argument van gelijke behandeling.
Kunnen algoritmes dan wél eerlijk worden ingezet?
We vroegen Sennay om wat advies. Waar moet bijvoorbeeld een overheid opletten als ze ook met data en algoritmes werken?
Samenvatting
In deze track heb je geleerd:
Dat er steeds meer algoritmen worden gebruikt
Die algoritmen worden getraind met (of maken gebruik van) data
Daardoor kunnen er vooroordelen (bias) ontstaan
Bijvoorbeeld door collection bias of digital red lining.