211service.com
Gezichtsherkenning minder bevooroordeeld maken, maakt het niet minder eng

Busà Photography/Getty
In de afgelopen jaren is de acceptatie van gezichtsherkennings-, detectie- en analysetechnologie enorm toegenomen.
U bent waarschijnlijk het meest bekend met erkenning systemen, zoals Facebook's aanbeveling voor het taggen van foto's en Apple's FaceID, die specifieke personen kunnen identificeren. Detectie systemen daarentegen bepalen of er überhaupt een gezicht aanwezig is; en analyse systemen proberen aspecten als geslacht en ras te identificeren. Al deze systemen worden nu voor verschillende doeleinden gebruikt, van: in dienst nemen en detailhandel naar veiligheid en toezicht .
Veel mensen zijn van mening dat dergelijke systemen zowel zeer nauwkeurig als onpartijdig zijn. De logica is dat luchthavenbeveiligingspersoneel moe kan worden en de politie verdachten verkeerd kan beoordelen, maar een goed opgeleid AI-systeem moet in staat zijn om elk beeld van een gezicht consequent te identificeren of te categoriseren.
Maar in de praktijk heeft onderzoek herhaaldelijk aangetoond dat deze systemen sommige demografische groepen veel onnauwkeuriger aanpakken dan andere. Afgelopen jaar, Geslacht tinten , een baanbrekende studie onder leiding van Joy Buolamwini, onderzoeker van het MIT Media Lab, ontdekte dat genderclassificatiesystemen die worden verkocht door IBM, Microsoft en Face++ een foutenpercentage hadden dat maar liefst 34,4 procentpunten hoger was voor donkerder huidskleur dan voor mannen met een lichtere huidskleur. De ACLU van Noord-Californië op dezelfde manier gevonden dat het platform van Amazon eerder niet-blanke dan blanke congresleden identificeerde.
Het probleem is dat gezichtsherkennings- en analysesystemen vaak worden getraind op scheve datasets: ze krijgen veel minder afbeeldingen van vrouwen en mensen met een donkere huid te zien dan afbeeldingen van mannen en mensen met een lichte huid. En hoewel velen van hen zogenaamd worden getest op eerlijkheid, controleren die tests de prestaties niet op een breed genoeg scala aan gezichten, zoals Buolamwini ontdekte. Deze ongelijkheden bestendigen en versterken bestaande onrechtvaardigheden en leiden tot gevolgen die alleen maar erger worden naarmate de inzet groter wordt.
Drie nieuwe kranten die de afgelopen week zijn uitgebracht, brengen nu de broodnodige aandacht voor deze kwestie. Hier is een korte beschrijving van elk van hen.
Papier #1. Afgelopen donderdag, Buolamwini vrijgelaten een update van Gender Shades door de systemen die ze eerder had onderzocht opnieuw te testen en haar recensie uit te breiden met Amazon's Rekognition en een nieuw systeem van een klein AI-bedrijf genaamd Kairos. Er is goed nieuws. Ze ontdekte dat IBM, Face++ en Microsoft allemaal de nauwkeurigheid van hun genderclassificatie verbeterden voor vrouwen met een donkere huidskleur, waarbij Microsoft het foutenpercentage verlaagde tot minder dan 2%. Aan de andere kant hadden de platforms van Amazon en Kairos nog steeds nauwkeurigheidsverschillen van respectievelijk 31 en 23 procentpunten tussen lichtere mannen en donkere vrouwen. Buolamwini zei de studie toont aan dat deze technologieën extern moeten worden gecontroleerd om ze technisch verantwoordelijk te houden.
Papier #2. Op zondag, een studie van het MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) demonstreerde de effectiviteit van een nieuw algoritme voor het verminderen van vooroordelen in een gezichtsdetectiesysteem, zelfs wanneer het is getraind op sterk vertekende gegevens. Terwijl het traint, identificeert het ook welke voorbeelden in de gegevens ondervertegenwoordigd zijn en besteedt het extra tijd aan het bekijken ervan om dit te compenseren. Toen de onderzoekers het systeem testten met Buolamwini's Gender Shades-dataset, ontdekten ze dat het hielp om hun eigen grootste nauwkeurigheidskloof te dichten, tussen mannen met een lichtere en donkere huidskleur, vergeleken met een standaard trainingsalgoritme (hoewel het het niet volledig elimineerde) .
Papier #3. Vanmorgen bracht IBM Research een papier die tientallen kenmerken identificeert voor het meten van diversiteit buiten huidskleur en geslacht, inclusief hoofdhoogte, gezichtsbreedte, oogafstand en leeftijd. De bevindingen zijn gebaseerd op eerder onderzoek naar menselijke gezichten. Tenzij we maatregelen hebben voor gezichtsdiversiteit, zegt John Smith, een van de co-auteurs van het artikel, kunnen we niet terugkomen en ze afdwingen terwijl we deze gezichtsherkenningssystemen trainen. Samen heeft het team een nieuwe dataset uitgebracht met 1 miljoen afbeeldingen van gezichten, geannoteerd met deze nieuwe maatregelen.

Verschillende metingen van gezichtsdiversiteit, gepresenteerd in het nieuwe artikel van IBM Research. IBM Onderzoek
Elk van deze onderzoeken heeft belangrijke stappen gezet om vooroordelen in gezichtsherkenning aan te pakken - door bedrijven verantwoordelijk te houden, door nieuwe algoritmen te creëren en door ons begrip van gegevensdiversiteit uit te breiden. Maar het creëren van eerlijkere en nauwkeurigere systemen is slechts het halve werk.
Zelfs de eerlijkste en meest nauwkeurige systemen kunnen nog steeds worden gebruikt om de burgerlijke vrijheden van mensen te schenden. Vorig jaar, een Daily Beast onderzoek ontdekte dat Amazon zijn platform voor gezichtsbewaking actief onder de aandacht bracht bij de Amerikaanse immigratie- en douanehandhaving, beter bekend als ICE, om te helpen bij het hardhandig optreden tegen migrantengemeenschappen. een onderschepping onderzoek ontdekte ook dat IBM het vermogen ontwikkelde om de etniciteit van gezichten te identificeren als onderdeel van een langdurige samenwerking met de politie van New York. Deze technologie werd vervolgens ingezet in openbare bewakingscamera's om te testen, zonder medeweten van stadsbewoners. De Britse Metropolitan Police gebruikt al gezichtsherkenning om publiek publiek scannen voor mensen op watchlists, en China gebruikt het voor massale surveillance van alle inwoners, onder meer voor het volgen van dissidenten.
Als reactie op de snelle verspreiding van deze systemen heeft een groeiend aantal burgerrechtenactivisten en technologen hebben opgeroepen om ze te reguleren; Google heeft zelfs geschorst zijn verkoop van dergelijke systemen totdat het duidelijke strategieën heeft om misbruik te voorkomen.
Zonder algoritmische rechtvaardigheid kan algoritmische nauwkeurigheid/technische rechtvaardigheid AI-tools creëren die bewapend zijn, zegt Buolamwini.
Dit verhaal verscheen oorspronkelijk in onze AI-nieuwsbrief The Algorithm. Om het direct in je inbox te krijgen, kun je je hier gratis aanmelden.