211service.com
EmTech Stage: Facebook's CTO over verkeerde informatie
Misinformatie en sociale media zijn onlosmakelijk met elkaar verbonden; zoals platforms zoals Twitter en Facebook zijn uitgegroeid tot een wereldwijde omvang, zo ook de dreiging die uitgaat van de verspreiding van valse inhoud. In het midden van een volatiel verkiezingsseizoen in de VS en een woedende wereldwijde pandemie, is de kracht van informatie om meningen te veranderen en levens te redden (of in gevaar te brengen) volledig zichtbaar. In de eerste van twee exclusieve interviews met twee van 's werelds machtigste mensen, gaat de hoofdredacteur van Technology Review, Gideon Lichfield, om de tafel met Facebook CTO Mike Schroepfer om te praten over de uitdagingen van het bestrijden van valse en schadelijke inhoud op een online platform dat wordt gebruikt door miljarden over de hele wereld. Dit gesprek is afkomstig van de virtuele EmTech MIT-conferentie en is bewerkt voor lengte en duidelijkheid.
Kijk voor meer informatie over dit onderwerp op de aflevering van Deep Tech van deze week en onze dekking van het technologiebeleid.
Credits:
Deze aflevering van EmTech is geproduceerd door Jennifer Strong en Emma Cillekens, met speciale dank aan Brian Bryson en Benji Rosen. We worden geredigeerd door Michael Reilly en Gideon Lichfield.
Vertaling:
Krachtig: Hallo allemaal, het is Jennifer Strong. Vorige week heb ik beloofd iets voor je uit te kiezen uit EmTech, de grote jaarlijkse conferentie van onze redactie. Dus hier is het. Nu de Amerikaanse verkiezingen nog maar een paar dagen verwijderd zijn, duiken we rechtstreeks in een van de meest controversiële onderwerpen in de wereld van technologie en daarbuiten: verkeerde informatie.
Veel hiervan begint op samenzweringswebsites, maar het is op sociale media dat het wordt versterkt en verspreid. Deze bedrijven nemen steeds gedurfdere maatregelen om bepaalde soorten nepnieuws en extremistische groepen te verbieden, en ze gebruiken technologie om verkeerde informatie weg te filteren voordat mensen het kunnen zien. Ze beweren daar steeds beter in te worden en op een dag zeggen ze dat ze het internet weer veilig kunnen maken voor iedereen. Maar kunnen ze dat echt?
In de volgende twee afleveringen gaan we de chief technology officers van Facebook en Twitter ontmoeten. Ze hebben allebei HEEL verschillende benaderingen gekozen als het gaat om verkeerde informatie, deels omdat veel van wat er op Facebook gebeurt in privégroepen is, wat het een moeilijker probleem maakt om aan te pakken. Terwijl op Twitter bijna alles in het openbaar gebeurt. Dus eerst omhoog - Facebook. Hier is Gideon Lichfield, de hoofdredacteur van Tech Review. Hij staat op de virtuele mainstage van EmTech voor een sessie die vraagt: 'Kan AI het internet opruimen'? Dit gesprek is bewerkt voor lengte en duidelijkheid.
Lichfield: Ik ga nu naar onze eerste spreker, Mike Schroepfer. Over het algemeen bekend bij al zijn collega's als Schrep. Hij is de CTO van Facebook. Hij werkt sinds 2008 bij Facebook en toen was het een stuk kleiner en werd hij in 2013 CTO. Vorig jaar schreef The New York Times een groot profiel van hem, wat erg interessant is om te lezen. Het was getiteld 'Facebook's AI-whizz staat nu voor de taak om het op te ruimen. Soms levert dat hem tranen op. Schrap, welkom. Bedankt dat je bij EmTech bent gekomen.
Schroepfer: Hey Gideon, bedankt. Blij om hier te zijn.
Lichfield: Facebook heeft met name de afgelopen maanden behoorlijk agressieve bewegingen gemaakt. Je hebt actie ondernomen tegen QAnon, je hebt Holocaust-ontkenning en anti-vaccinatie-advertenties verboden. Maar mensen waarschuwen al jaren voor QAnon, mensen waarschuwen al jaren voor verkeerde informatie over vaccinaties. Dus, waarom duurde het zo lang? Wat, wat, veranderde er in je denken waardoor je deze actie ondernam?
Schroepfer: Ja, ik bedoel, de wereld verandert voortdurend. Er zijn veel recente gegevens, weet u, over de opkomst van antisemitische overtuigingen of onbegrip over de Holocaust. QAnon, zoals je weet, is de laatste jaren meer een dreiging van geweld geworden. En het idee dat er rond een Amerikaanse verkiezingen zou worden gedreigd met geweld is nieuw. En dus, vooral op plaatsen waar de samenleving en dingen die kritieke gebeurtenissen zijn, zoals een verkiezing, doen we er alles aan om ervoor te zorgen dat mensen zich veilig en zeker en geïnformeerd voelen om de beslissing te nemen die ze moeten nemen om te kiezen wie zit in de regering. En dus nemen we agressievere maatregelen.
Lichfield: Je zei zojuist iets, je zei dat er veel gegevens waren. En dat soort resoneert bij mij met iets dat ik had Alex Stamos, de voormalige chief security officer van Facebook, zei hij onlangs in een podcast, dat bij Facebook beslissingen echt op basis van data worden genomen. Dus is het dat je nodig hebt, je had overweldigend bewijsmateriaal nodig, maar weet je, de Holocaust-ontkenning veroorzaakt schade of de QAnon veroorzaakt schade voordat je ertegen actie onderneemt.
Schroepfer: Wat ik zou zeggen is dat dit is. We hebben een dienst die door miljarden mensen over de hele wereld wordt gebruikt en dus een fout die ik niet wil maken, is aannemen dat ik begrijp wat andere mensen nodig hebben, wat andere mensen willen of wat er gebeurt. Een manier om dat te vermijden is om te vertrouwen op expertise waar we die hebben. Dus, weet je, voor gevaarlijke organisaties hebben we bijvoorbeeld veel mensen met een achtergrond in terrorismebestrijding, gingen naar West Point, we hebben veel mensen met een rechtshandhavingsachtergrond waar je praat over inmenging van stemmen, we hebben experts met achtergronden en stemmen en rechten.
En dus luister je naar experts, uh, en je kijkt naar data en jij, en je probeert dat onderwerp te begrijpen in plaats van, weet je, je wilt niet dat ik deze beslissingen neem. U, u wilt een soort van experts en u wilt dat de gegevens het doen. En omdat het niet alleen, weet je, dit probleem hier is, het zijn privacykwesties, het zijn problemen en locaties, en, dus ik zou zeggen dat we rigoureus proberen te zijn in het gebruik van soort expertise en gegevens waar we kunnen, dus we doen geen aannames over wat er in de wereld gebeurt of wat we denken dat mensen nodig hebben.
Lichfield: Laten we het wat meer hebben over QAnon, met name vanwege de benadering die je kiest om met deze informatie om te gaan, terwijl je probeert je AI's te trainen om dingen te herkennen die schadelijk zijn. En de moeilijkheid met deze benadering is dat de aard van desinformatie voortdurend de contextspecifiek verandert, toch? En verkeerde informatie over moslims in Myanmar, wat daar tot rellen leidde. Je weet niet dat dat verkeerde informatie is totdat het begint te verschijnen. Het probleem met Q Anon lijkt mij dat het zo'n, het is niet zoals ISIS of zoiets. zijn overtuigingen blijven de rekeningen veranderen, blijven veranderen. Dus, hoe pak je iets aan dat zo slecht gedefinieerd is als een dergelijke bedreiging?
Schroepfer: Nou, weet je, ik zal hierover praten en, en ik denk dat een van de, vanuit technisch perspectief, een van de moeilijkste uitdagingen waar ik me de afgelopen jaren erg op heb gefocust, vanwege soortgelijke problemen op het gebied van subtiliteit, gecodeerde taal en vijandig gedrag, wat haatspraak is. Er is openlijke haatspraak, wat heel duidelijk is en je kunt een soort van zinnen gebruiken die je hebt opgeslagen of, of, of trefwoorden. Maar mensen passen zich aan en ze gebruiken codetaal en ze doen het, weet je, op een dagelijkse, wekelijkse basis. En je kunt dit zelfs doen met memes waar je een foto hebt en dan leg je er wat woorden bovenop, en het verandert de betekenis volledig. Je ruikt heerlijk vandaag. En de foto's van skunk zijn iets heel anders dan, je weet wel, een bloem, en je moet het allemaal samenvoegen.
En zo, um, en op dezelfde manier, zoals je zegt, met QAnon en er kan subtiliteit zijn en dat soort dingen. Dit is waarom ik zo gefocust ben op, je weet wel, een paar belangrijke AI-technologieën. Een daarvan is dat we het vermogen van deze classificaties om genuanceerde informatie te begrijpen en te verwerken, drastisch hebben vergroot. Weet je, vijf of tien jaar geleden waren een soort trefwoorden waarschijnlijk het beste wat we konden doen. Nu zijn we op het punt beland waarop onze classifiers fouten detecteren in de labelgegevens of fouten die menselijke recensenten soms maken. Omdat ze krachtig genoeg zijn om subtiliteit te vangen in onderwerpen als: is dit een bericht dat aanzet tot geweld tegen een kiezer? Of drukken ze gewoon hun ongenoegen uit over het stemmen of deze populatie? Dat zijn twee heel... helaas is het een, het is een dunne lijn als je kijkt naar hoe voorzichtig mensen proberen te zijn met het coderen van de taal om er een beetje omheen te komen.
En dus zie je soortgelijke dingen bij QAnon en anderen. En dus hebben we classifiers nu, dat, weet je, ons ultramoderne werk in meerdere talen en echt indrukwekkend zijn in wat ze hebben gedaan door middel van technieken waar we op kunnen ingaan, zoals zelftoezicht, um, om naar te kijken, weet je, miljarden stukjes data om te trainen. En het andere dat we hebben, is dat we een soortgelijke techniek als deze gebruiken, waarmee we, je weet wel, de beste manier kunnen doen om het te beschrijven als een soort vage matching. Dat is als een menselijke recensent, de tijd doorbrengt en zegt, weet je wat, ik denk dat deze stukjes verkeerde informatie, of dit is een QAnon-groep, ook al is het in verschillende talen gecodeerd, wat we dan kunnen doen is een beetje uitwaaieren en vind dingen die semantisch vergelijkbaar zijn, niet de exacte woorden, geen trefwoorden, geen regexen, eh, maar dingen die heel dichtbij zijn in a, in een inbeddingsruimte die semantisch vergelijkbaar zijn. En dan kunnen we actie op hen ondernemen.
En dit zorgt voor wat ik een snelle reactie noem. Dus zelfs als ik gisteren geen idee had wat dit ding was, vandaag, als een stel menselijke recensenten het vinden, kunnen we hun werk een beetje over het netwerk versterken en dat proactief implementeren wanneer er nieuwe stukjes informatie zijn. Om dit in context te plaatsen, weet je, in het tweede kwartaal hebben we 7 miljoen stukjes COVID-desinformatie verwijderd. Het is duidelijk dat er in het vierde kwartaal van vorig jaar niet zoiets bestond als verkeerde informatie over COVID. Dus moesten we een soort van nieuwe classificatietechnieken bouwen om dit te doen. En wat ik het team heb uitgedaagd, is alsof we de bouwtijd van onze classifier terugbrengen van wat vroeger vele, vele maanden waren tot, weet je, wat, soms weken, tot dagen, tot minuten. De eerste keer dat ik een voorbeeld zie, of de eerste keer dat ik een nieuw beleid lees, wil ik een classificatie kunnen bouwen die functioneel is op, je weet wel, op de schaal van miljarden gebruikers. En weet je, we zijn er nog niet, maar we maken snel vorderingen
Lichfield: We zullen. Dus ik denk dat dit is wat de vraag is, hoe snel is de vooruitgang, toch? Dat, die 7 miljoen desinformatiestatistieken. Ik zag dat geciteerd door een Facebook-woordvoerder in reactie op een onderzoek dat in augustus uitkwam van Avaaz. En het had gekeken naar desinformatie over COVID, waaruit bleek dat de top 10 websites die verkeerde informatie verspreidden, vier keer zoveel geschatte weergaven op Facebook hadden als equivalente inhoud van de websites van 10 toonaangevende gezondheidsinstellingen, zoals de WHO, ze ontdekten dat slechts 16% van de alle desinformatie over de gezondheid, die ze analyseerden, had een waarschuwingslabel van Facebook. Dus met andere woorden, je bent duidelijk veel aan het doen, je doet veel meer dan je was en jij, en je loopt nog steeds ver achter op de curve. Hoe, en dit is een crisis die mensen doodt. Dus hoe lang duurt het voordat je daar bent, denk je?
Schroepfer: Ja, ik bedoel, ik denk dat, weet je, dit is waar, weet je, ik zou willen dat we hier meer gegevens over publiceren. Want wat je echt nodig hebt om appels met appels te vergelijken, is het totale bereik van deze informatie, en het soort informatie, het soort blootstellingsdieet van de gemiddelde Facebook-gebruiker. En ik denk dat er een paar stukjes zijn die mensen niet krijgen. De eerste is dat de nieuwsfeed van de meeste mensen gevuld is met inhoud van hun vrienden. Zoals, nieuwslinks, dit zijn een soort minderheid van de weergaven all-in en de nieuwsfeed van mensen en Facebook. Ik bedoel, het doel van Facebook is om contact te maken met je vrienden en je hebt dit waarschijnlijk zelf ervaren. Het zijn, je weet wel, berichten en foto's en dat soort dingen.
Ten tweede, over zaken als desinformatie over COVID, waarmee je dat echt kunt vergelijken, bijvoorbeeld door het te vergelijken met de weergaven van ons COVID-informatiecentrum, dat we letterlijk helemaal bovenaan de nieuwsfeed hebben geschoven, zodat iedereen informatie kon krijgen op dat. We doen soortgelijke dingen, um, om te stemmen. We hebben geholpen om bijna twee en een half miljoen kiezers in de VS te registreren. Soortgelijke informatie, weet je, voor kwesties van raciale rechtvaardigheid, gezien alle vreselijke gebeurtenissen die dit jaar hebben plaatsgevonden. Dus wat ik niet heb, is de uitgebreide studie van, weet je, hoe vaak heeft iemand de COVID-informatiehub bekeken in vergelijking met deze andere dingen? Um, weet je, maar ik denk dat ze veel meer van die goede informatie van ons krijgen.
Maar kijk, weet je, elke keer dat dit spul ontsnapt, ben ik nog niet klaar. Dit is waarom ik hier nog steeds mijn werk doe, is dat we dit willen verbeteren. En, en, en ja, ik wou dat het 0% was. Ik wou dat onze classificaties 99,999% nauwkeurig waren. Zij zijn niet. Weet je, het is mijn taak om ze daar zo snel als menselijk mogelijk is te krijgen. En als we van dit telefoontje af zijn, ga ik daar aan werken. Wat ik kan doen is gewoon kijken naar de recente geschiedenis en de voortgang van het project. Omdat ik het verleden niet kan repareren, maar wel vandaag en morgen. Als ik kijk naar dingen als haatspraak, waar, weet je, in 2017, slechts ongeveer een kwart van de stukjes haatspraak eerst door onze systemen werd gevonden. Bijna driekwart daarvan werd eerst door iemand op Facebook gevonden. Wat verschrikkelijk is, wat betekent dat ze eraan werden blootgesteld en het aan ons moesten melden. En nu is het aantal tot 99, 94,5%. Zelfs in de laatste, weet je, tussen het tweede kwartaal van dit jaar en dezelfde tijd vorig jaar, hebben we de hoeveelheid inhoud die we verwijderen voor haatzaaien vervijfvoudigd. En dat kan ik allemaal traceren. Nu, dat aantal zou 99,99 moeten zijn en we zouden dit gesprek niet eens moeten hebben, want je zou moeten zeggen, ik heb dit nog nooit gezien en ik hoor er nooit iets over, omdat het weg is.
Dat is mijn doel, maar daar kom ik nog niet. Maar als je alleen naar de laatste kijkt, weet je, elke keer als ik iets zeg 5x in een jaar, of het gaat van 24% naar 94% in twee jaar, zoals, en ik zeg, we hebben een, we zijn niet , Ik heb geen ideeën meer, we gebruiken nog steeds ultramoderne dingen zoals deze week, volgende week, vorige week, daarom ben ik over het algemeen optimistisch dat we dit gaan verplaatsen probleem naar een plek waar het niet het eerste is waar je met me over wilt praten, maar ik ben er nog niet.
Lichfield: Het is een technisch probleem. Het is ook duidelijk een personeelsprobleem. Je zult duidelijk bekend zijn met de memo die Sophie Zhang, een voormalig Facebook-datawetenschapper, schreef toen ze vertrok. En ze schreef over hoe ze aan het werk was in een van de teams, je hebt meerdere teams die werken aan het identificeren van schadelijke informatie over de hele wereld. En haar belangrijkste klacht, het lijkt erop dat ze het gevoel had dat die teams onderbemand waren en dat ze prioriteit moest geven aan beslissingen over het al dan niet behandelen van, je weet wel, verkeerde informatie rond een verkiezing in een land voor gevallen als gevaarlijk. En als die beslissingen prioriteit kregen, kan het soms maanden duren voordat een probleem is opgelost en dat kan echte gevolgen hebben. Um, je hebt, ik denk dat 15.000 menselijke moderators op dit moment, denk je dat je genoeg mensen hebt?
Schroepfer: Ik denk dat we nooit genoeg mensen hebben voor iets. Dus ik, weet je, ik moet nog aan een project werken waar we naar dingen zochten om aan te werken en dat meen ik echt serieus. En wij, weet je, met 35.000 mensen die hieraan werken, je weet wel, beoordeling en inhoud en veiligheid en beveiliging. Het andere waar we volgens mij niet veel over praten, is dat als je met de hoofden van mijn AI-team gaat praten en hen vraagt wat Schrep ons de afgelopen drie jaar heeft gevraagd te doen, het is integriteit, het is inhoudsmoderatie . Het zijn geen coole wizzy, nieuwe dingen. Het is als, hoe kunnen we dit probleem bestrijden? En we hebben er jaren aan gewerkt.
Dus ik nam een soort van de beste en slimste die we in het bedrijf hebben en zei, weet je, en het is niet zo dat ik ze opdracht moet geven om het te doen omdat ze eraan willen werken. Ik zeg, we hebben een enorm probleem, we kunnen helpen, laten we dit gaan doen. Zijn we al klaar? Nee. Ben ik ongeduldig? Absoluut. Zou ik willen dat er meer mensen aan werkten? Altijd. Weet je, we moeten compromissen sluiten met deze dingen, en dus, weet je, maar mijn werk, weet je, en wat we met technologie kunnen doen, is een aantal van die compromissen opheffen. Weet je, elke keer dat we een nieuwe, krachtigere classifier inzetten, eh, die een hoop werk wegneemt van onze menselijke moderators, die dan kunnen gaan werken aan problemen op een hoger niveau. Weet je, in plaats van jou, weet je, heel gemakkelijke beslissingen, gaan ze over tot verkeerde informatie en heel vage dingen en het evalueren van gevaarlijke groepen en dat soort mensen op de moeilijkheidsgraad brengen, is ook dingen verbeteren. En dat is wat we proberen te doen.
Krachtig: We gaan er even tussenuit, maar eerst wil ik je een andere show voorstellen waarvan ik denk dat je die leuk zult vinden. Brave New Planet weegt de voor- en nadelen af van een breed scala aan krachtige innovaties in wetenschap en technologie. Dr. Eric Lander, die het Broad Institute of MIT en Harvard leidt, onderzoekt moeilijke vragen zoals;
Lander: Moeten we de atmosfeer van de aarde veranderen om klimaatverandering te voorkomen? En kunnen waarheid en democratie de impact van deepfakes overleven?
Krachtig: Brave New Planet is van Pushkin Industries. Je kunt het overal vinden waar je je podcasts vandaan haalt. Hierna zijn we terug.
[Advertentie]
Krachtig: Welkom terug bij een speciale aflevering van In Machines We Trust. Dit is een gesprek tussen Mike Schroepfer van Facebook en Gideon Lichfield, hoofdredacteur van Tech Review. Het gebeurde live op het virtuele podium van onze EmTech-conferentie, en het is bewerkt voor lengte en duidelijkheid. Als je meer wilt weten over dit onderwerp, inclusief onze analyse, bekijk dan de shownotes of bezoek ons op Technology Review dot com.
Lichfield: Een paar vragen die ik vanuit het publiek ga stellen, hoe beïnvloedt verkeerde informatie de inkomstenstroom van Facebook? En een andere is, eh, over, uh, hoe beïnvloedt het het vertrouwen in Facebook? Welnu, er lijkt een onderliggend gebrek aan vertrouwen in Facebook te zijn en hoe meet je vertrouwen? En de glans die we op deze vragen willen aanbrengen is, het is duidelijk dat je om verkeerde informatie geeft, het is duidelijk dat veel van de mensen die bij Facebook werken zich er zorgen over maken of zich er zorgen over maken, maar er is, denk ik, een onderliggende vraag die mensen hebben geeft Facebook als bedrijf er iets om, wordt het er negatief genoeg door beïnvloed om het probleem echt serieus aan te pakken?
Schroepfer: Ja. Ik bedoel, kijk, ik ben ook een mens in de samenleving. Ik geef veel om democratie en de toekomst en om het leven van mensen op een positieve manier vooruit te helpen. En ik daag je uit om iemand te vinden die er anders over denkt in onze kantoren. En dus, ja, we werken bij Facebook, maar we zijn mensen in de wereld en ik geef veel om de toekomst van mijn kinderen. En nou, nou, je vraagt, kan het ons iets schelen? En het antwoord is ja. Um, weet je, hebben we de prikkels? Waar hebben we vandaag veel van onze tijd over gesproken? We hadden het over verkeerde informatie en andere dingen, weet je, eerlijk gezegd, waar zou ik het liever over hebben? Ik praat liever over VR en positief gebruik van AR en alle geweldige nieuwe technologie die we bouwen, want, weet je, dat is normaal gesproken waar een CTO het over zou hebben.
Het is dus duidelijk iets dat het vertrouwen in het bedrijf, het vertrouwen in onze producten, op de proef stelt, dat is een enorm probleem voor ons, eh, vanuit het oogpunt van eigenbelang. Dus zelfs als je denkt dat ik er vol van ben, je gewoon, vanuit een praktisch eigenbelang, zoals als een merk, als een consumentenproduct dat mensen elke dag vrijwillig gebruiken, wanneer ik probeer een nieuw product zoals Portal te verkopen , wat een camera voor thuis is, zoals de mensen het bedrijf achter dit product vertrouwen en denken dat we hun beste bedoelingen voor ogen hebben. Als ze dat niet doen, wordt het een enorme uitdaging voor alles wat ik doe. Dus ik denk dat de belangen hier redelijk op één lijn liggen. Ik denk niet dat er veel goede voorbeelden zijn van consumentenproducten die gratis zijn, die overleven als mensen ze niet leuk vinden, de bedrijven niet leuk vinden of denken dat ze slecht zijn. Dit is dus vanuit het oogpunt van eigenbelang een kritieke kwestie voor ons.
[Kredieten]
Krachtig: Dit gesprek met de CTO van Facebook is de eerste van twee afleveringen over desinformatie en sociale media. In het volgende deel chatten we met de CTO van Twitter. Als je de analyse van onze redactie van dit onderwerp en de verkiezing wilt horen, heb ik een link in onze shownotities geplaatst. Ik hoop dat je het wilt bekijken. Deze aflevering van EmTech is geproduceerd door mij en door Emma Cillekens, met speciale dank aan Brian Bryson en Benji Rosen. We worden geredigeerd door Michael Reilly en Gideon Lichfield. Zoals altijd, bedankt voor het luisteren. Ik ben Jennifer Strong.
[TR-ID]