‘De computer kijkt naar erg domme verschillen’

KIJK-redactie

30 juli 2021 12:00

computer

Kunstmatige intelligentie die je geaardheid, IQ en politieke voorkeur van je gezicht afleest. De toekomst is hier, wordt gezegd. Ronald Veldhuizen haalt ook deze technologie onderuit.

Homoseksueel of niet? Een computer met kunstmatige intelligentie hoeft maar een gezichtsfoto te zien en weet het al. De digitale ‘gaydar’ zou zelfs beter zijn dan die van mensen. Je politieke voorkeur? De computer weet het. Je IQ? Ook. Shit, de toekomst is al hier.

Lees ook:

Gezichtsbedrog

Toch is dat niet zo. Want kijk eens goed naar de wetenschap achter computers die diepgewortelde menselijke eigenschappen aflezen van iemands gelaat en het wordt snel duidelijk dat we hier te maken hebben met gezichtsbedrog.

Het vaakst in het nieuws met ronkende gezichtsaflees-algoritmes is de Stanford-onderzoeker Michal Kosinski. In 2017 publiceerde hij een studie waarin hij zou hebben aangetoond dat een zelflerend algoritme kan zien wie homo of hetero is, door te kijken naar iemands gezichtsstructuur.

Het idee achter Kosinski’s programma lijkt in beginsel logisch: je traint een computer op gezichtsfoto’s van een groep mensen – in dit geval van een Amerikaanse datingsite – en verklapt welke seksuele voorkeur ze hebben. Daarna laat Kosinski de computer hetzelfde oordeel vellen over een nieuwe set gezichtsfoto’s, en jawel, hij scoort niet onaardig.

‘Onzin in een racistisch jasje’

Het probleem is alleen dat een zelflerend algoritme geen flauw idee heeft waar het naar kijkt. En daar gaat het helemaal mis, laten critici keer op keer overtuigend zien. Zo schrijven kunstmatige- intelligentie-onderzoekers van Google dat op Kosinski’s foto’s goed te zien valt dat heteroseksuele vrouwen vaker oogschaduw dragen dan lesbische vrouwen. De gemiddelde homoseksuele man draagt vaker een bril. Dan weet je al hoe laat het is: de computer kijkt naar heel erg domme, oppervlakkige verschillen die toevallig op Amerikaanse datingsites tussen bepaalde mensen bestaan. Gemiddeld genomen. Niks gezichtskenmerken of slim algoritme dus.

Kortom, pseudowetenschap. Het doet enorm denken aan schedellezen, oftewel frenologie, een kwakzalverpraktijk die we honderd jaar geleden achter ons hebben gelaten. Vaak deden frenologen observaties die net zo oppervlakkig en nietszeggend zijn als Kosinski’s algoritmes nu. Voelde een vooraanstaande frenoloog bij een handvol agressieve personen of criminelen een knobbel boven het oor, dan ging zo’n kenmerk de boeken in als agressief.

De techniek is hoe dan ook echt gevaarlijk: in China gebruikt de overheid nu al gezichtsalgoritmes om mensen te bespioneren en controleren. Een spitse neus – iets dat minderheden in China vaker hebben – is dan al genoeg om je tot een target te maken. Oude onzin in een racistisch, modern jasje is het.

Deze column staat ook in het zomernummer van KIJK.

Ben je geïnteresseerd in de wereld van wetenschap & technologie en wil je hier graag meer over lezen? Word dan lid van KIJK! 



De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."








Meer Mens