‘Who owns the f****** code’!

coded-bias-1Garbage in, garbage out.

De eerste keer dat ik in één zin ‘vuilnis’ en kunstmatige intelligentie (K.I.) hoorde, was op een bijeenkomst met vooral medici. Het ging over ethiek en kunstmatige intelligentie. Input van big data is nooit waardevrij, was de kern, altijd sluipen er (onbewuste) vooroordelen in.

We noemen het dan wel kunstmatige intelligentie, maar het is vooral menselijke intelligentie, die we nabootsen en reproduceren. En bij mensen gaat nogal eens wat mis. Denk aan tunnelvisie bij de politie, medische missers, het afschilderen van ouders als fraudeurs door de Belastingdienst. Stop die menselijke intelligentie in de vorm van big data in de computer, geef op waarop je wilt classificeren (naam, inkomen, geslacht etc.) en de vooroordelen rollen eruit, maar nu verpakt als objectief en neutraal. En zeker wanneer de computer zelf verbanden gaat leggen (machine learning), en je ook als programmeur niet meer weet wat er nu precies in die black box gebeurd, dan wordt het oppassen geblazen.

Zwart + vrouw bestaat niet

Dat blijkt ook uit de film ‘Coded bias’ , een documentaire over negatieve gevolgen van onze moderne technologie. Tijdens haar werk aan de Massachusetts Institute of Technology (MIT) in Boston komt mediaonderzoeker Joy Buolamwini erachter dat gezichtsherkenningssoftware moeite heeft haar gezicht te herkennen. De reden? Haar huidskleur. Ze start een onderzoek naar de impliciete vooroordelen in kunstmatige intelligentie en ontdekt dat veel algoritmes vooral door witte mannen gemaakt worden, en daarom anders – of niet – reageren op mensen die niet man + wit zijn.

In het Amerika van de film liggen de voorbeelden voor het oprapen, want zes van de negen grote techbedrijven die zich bezighouden met K.I. hebben hier hun wortels, zoals Google en Facebook. En die liggen niets voor niets onder vuur vanwege de schendingen van privacy.

Profileren en targeting

Algoritmes discrimineren, blijkt keer op keer. Niet alleen op kleur, maar ook op geslacht, afkomst of het hebben van een handicap. Ze hebben dan ook alles te maken met macht en ongelijkheid, volgens Cathy O’Neil, erkende nerd en schrijver van het boek ‘Weapons of math destruction’. Het gaat over het niet kunnen krijgen van een hypotheek vanwege naam en postcode. Over gezichtsherkenning die zo slecht is, dat mensen – lees: vooral zwarte mannen- ten onrechte geprofileerd en getarged worden. Het gaat over rechters, die algoritmes gebruiken om iemand te veroordelen, over excellente leraren die op basis van het algoritme toch ontslagen worden, over vrouwen die bij Amazon nooit door de selectie komen vanwege hun geslacht, En het ergste is dat het een ongelijke strijd is, omdat je niet weet of er een algoritme in het spel is en hoe het werkt, wat erin gestopt is. ‘Who owns the fucking code’! is daarmee een belangrijke vraag geworden, volgens O’Neil. Vooral omdat toezicht ontbreekt en de deur open staat voor misbruik.

Kunstmatige intelligentie is hiermee intelligentie zonder ethiek. Het is garbage, rommel. Het is de fabeltjesfuik van Arjen Lubach.

Deze blog is geschreven door José van Berkum. Vanuit haar adviesbureau voor communicatie (www.vbcom.nl) is ze gespecialiseerd in wonen, welzijn en technologie van senioren.

Wat kunnen we van je leren?

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s