Hoe verborgen vooroordelen in AI uit te roeien?

Algoritmen nemen levensveranderende beslissingen, zoals het weigeren van voorwaardelijke vrijlating of het verstrekken van leningen. Cynthia Dwork, een computerwetenschapper aan Harvard, ontwikkelt manieren om ervoor te zorgen dat de machines eerlijk werken. 24 oktober 2017

Miguel Porlan





Waarom is het moeilijk voor algoritmeontwerpers of datawetenschappers om vooringenomenheid en oneerlijkheid te verklaren?

Neem een ​​werkomgeving die vrouwenvijandig is. Stel dat u succes definieert als het feit dat iemand twee tot drie jaar een baan heeft en een promotie krijgt. Dan zal je voorspeller - op basis van de historische gegevens - nauwkeurig voorspellen dat het geen goed idee is om vrouwen aan te nemen. Wat hier interessant is, is dat we het niet hebben over historische wervingsbeslissingen. Zelfs als de aanwervingsbeslissingen volledig onbevooroordeeld waren, blijft de realiteit - de echte discriminatie in de vijandige omgeving - bestaan. Het is dieper, meer structureel, meer ingesleten en moeilijker te overwinnen.

De kwestie van kunstmatige intelligentie

Dit verhaal maakte deel uit van ons nummer van november 2017



  • Zie de rest van het nummer
  • Abonneren

Ik geloof dat het grote nut van machine learning en AI zal zijn in combinatie met echt deskundige mensen die geschiedenis, sociologie en psychologie kennen om erachter te komen wie op dezelfde manier moet worden behandeld als wie.

Ik zeg niet dat computers het nooit zullen kunnen, maar ik zie het nu niet. Hoe weet je wanneer je het juiste model hebt en wanneer het vastlegt wat er echt in de samenleving is gebeurd? Je moet begrijpen waar je het over hebt. Er is het bekende gezegde Alle modellen zijn fout en sommige zijn nuttig.

zoals verteld aan Will Knight



zich verstoppen