TikTok-moderators zeggen dat ze zijn getraind met inhoud van seksueel misbruik van kinderen

0
17


EEN Forbes rapport roept vragen op over hoe het moderatieteam van TikTok omgaat met materiaal van seksueel misbruik van kinderen – naar verluidt het brede, onveilige toegang tot illegale foto’s en video’s.

Medewerkers van een externe moderatie-outfit genaamd Teleperformance, die onder andere met TikTok werkt, beweren dat het hen heeft gevraagd om een ​​verontrustende spreadsheet met de naam DRR of Daily Required Reading op TikTok-moderatienormen te bekijken. De spreadsheet zou inhoud bevatten die in strijd was met de richtlijnen van TikTok, waaronder ‘honderden afbeeldingen’ van kinderen die naakt waren of werden misbruikt. De werknemers zeggen dat honderden mensen bij TikTok en Teleperformance toegang hebben tot de inhoud van zowel binnen als buiten het kantoor – wat de deur opent naar een breder lek.

Teleperformance geweigerd Forbes dat het werknemers seksueel uitbuitende inhoud liet zien, en TikTok zei dat het trainingsmateriaal “strikte toegangscontroles heeft en geen visuele voorbeelden van CSAM bevat”, hoewel het niet bevestigde dat alle externe leveranciers aan die norm voldeden. “Content van deze aard is weerzinwekkend en heeft geen plaats op of buiten ons platform, en we streven ernaar de blootstelling van moderators te minimaliseren in overeenstemming met de beste praktijken in de sector. Het trainingsmateriaal van TikTok heeft strikte toegangscontroles en bevat geen visuele voorbeelden van CSAM, en ons gespecialiseerde kinderveiligheidsteam onderzoekt en rapporteert aan NCMEC, “vertelde TikTok-woordvoerder Jamie Favazza. De rand in een verklaring.

De medewerkers vertellen een ander verhaal, en als Forbes legt uit, het is juridisch een hachelijke zaak. Contentmoderators worden routinematig gedwongen om te gaan met CSAM die op veel sociale-mediaplatforms wordt geplaatst. Maar afbeeldingen van kindermishandeling zijn onwettig in de VS en moeten zorgvuldig worden behandeld. Bedrijven worden verondersteld de inhoud te rapporteren aan het National Center for Missing and Exploited Children (NCMEC) en deze vervolgens 90 dagen te bewaren, maar het aantal mensen dat de inhoud ziet te minimaliseren.

De beschuldigingen hier gaan veel verder dan die limiet. Ze geven aan dat Teleperformance werknemers grafische foto’s en video’s liet zien als voorbeelden van wat ze op TikTok moesten taggen terwijl ze snel en los speelden met toegang tot die inhoud. Een medewerker zegt dat ze contact heeft opgenomen met de FBI om te vragen of de praktijk neerkwam op het crimineel verspreiden van CSAM, hoewel het niet duidelijk is of er een is geopend.

De volledige Forbes rapport is het lezen waard, waarin een situatie wordt geschetst waarin moderators de explosieve groei van TikTok niet konden bijhouden en werd verteld om misdaden tegen kinderen te bekijken om redenen waarvan ze vonden dat ze niet klopten. Zelfs volgens de gecompliceerde normen van debatten over online veiligheid van kinderen, is het een vreemde – en zij het nauwkeurig, gruwelijke – situatie.

Update 6 augustus, 9.30 uur ET: Verklaring van TikTok toegevoegd.

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in