
Nadat een TikTok die Patreon beschuldigde van het negeren van rapporten en willens en wetens profiteren van accounts die materiaal voor seksueel misbruik van kinderen plaatsen (CSAM), honderdduizenden views trok, stapelden meer TikTokers zich op, wat meer interesse wekte. Patreon reageerde onmiddellijk door de TikToks als desinformatie te bestempelen. In een blog ontkende Patreon beschuldigingen en beschuldigde hij TikTokers van het verspreiden van een “samenzwering waarbij Patreon bewust illegaal en uitbuitend materiaal voor kinderen host”.
Volgens Patreon kwam de samenzweringstheorie voort uit een nepbericht op een vacaturesite; Vice meldde later dat de site Glassdoor was. De Glassdoor-review werd in augustus geplaatst en beweerde dat Patreon weigerde te reageren op meldingen van accounts die verdacht werden van het “verkopen van onzedelijke foto’s” van kinderen. Terwijl TikTokers hun mislukte pogingen beschreef om deze accounts te rapporteren, ontsloeg Patreon leden van zijn beveiligingsteam en, zei Patreon, “toeschouwers koppelden” de “kleinschalige personeelswijzigingen die we vorige week hebben aangebracht aan onze beveiligingsorganisatie.” De TikTokers beweerden dat Patreon heeft zijn personeel specifiek ontslagen omdat het niet voldoet aan de bevelen om CSAM op het platform te laten blijven.
“Gevaarlijke en samenzweerderige desinformatie begon onlangs te circuleren op sociale media”, zei Patreon. “We willen al onze makers en klanten laten weten dat deze beweringen ondubbelzinnig onjuist zijn en de zaak rechtzetten.”
In de TikTok-video’s waren de “onfatsoenlijke foto’s” van Patreon, zo ontdekte Vice’s rapportage, van een mix van familieaccounts en accounts met volwassen modellen die zich bezighouden met “leeftijdsspel” en zich voordoen als kinderen. De maker van het age play-account, meldde Vice, werd uiteindelijk verbannen van Patreon en andere platforms. Patreon US Policy Head Ellen Satterwhite vertelde Vice dat “Patreon geen enkele tolerantie heeft voor de seksualisering van kinderen of tieners en elke gebruiker en alle bijbehorende inhoud zal verwijderen die in strijd is met dit beleid.” Patreon vertelde Ars dat het op dit moment geen verder commentaar heeft.
Technologie ontwikkelen om alle CSAM te blokkeren
Op basis van 2020-gegevens meldde de in het VK gevestigde Internet Watch Foundation dat meer dan een vijfde van de wereldwijde CSAM in de VS wordt gehost. Wereldwijd is het probleem de afgelopen 15 jaar met 15.000 procent toegenomen, aldus Thorn, een organisatie die nieuwe technologieën ontwikkelt om online seksueel misbruik van kinderen tegen te gaan (opgericht door Ashton Kutcher en Demi Moore).
Patreon zei in zijn verklaring dat het samenwerkt met Thorn en andere organisaties, zoals het National Center for Missing and Exploited Children (NCMEC) en INHOPE, om “het internet veiliger te houden”. Organisaties zoals deze, die zich inzetten voor het beëindigen van seksueel misbruik van kinderen, hebben tot taak het bewustzijn van CSAM-misbruik online te vergroten, terwijl ze ook te maken krijgen met een mogelijke aanslag op hun middelen als gevolg van hysterie over frauduleuze aanklachten voor sekshandel, die, zo meldde Vice, gemeengoed is geworden voor virale TikToks.
Een woordvoerder van Thorn vertelde Ars dat het geen commentaar kan geven op de TikTok-zaak, maar meer zou kunnen uitleggen over hun samenwerking met Patreon.
Omdat het probleem van “CSAM op technologieplatforms alomtegenwoordig is en exponentieel blijft groeien”, zei een woordvoerder van Thorn dat “elk platform met een uploadknop kan worden – en waarschijnlijk wordt – gebruikt om CSAM te distribueren.” Vandaag zei Thorn dat “roofdieren meer toegang hebben tot kinderen en de mogelijkheid om CSAM te verspreiden dan ooit tevoren”, en daarom werkt Thorn samen met technologiebedrijven zoals Patreon, die op grote schaal platforms hebben gebruikt, om te proberen “verandering op systeemniveau” te bewerkstelligen. ’ tot een ‘alomtegenwoordig probleem’.
Als onderdeel van zijn samenwerking met Thorn gebruikt Patreon een Thorn-tool genaamd Safer om “CSAM op grote schaal te identificeren, detecteren en rapporteren”, gedeeltelijk door gebruik te maken van “Safer’s hashing en matching-technologie” om te voorkomen dat inhoud wordt gedeeld die al is gemarkeerd in een CSAM-database, zoals die van NCMEC.
Thorn is een organisatie die als een radertje dient tussen politie- en technologiebedrijven om meer impactvolle oplossingen te produceren, maar de IWF-gegevens suggereren dat de VS nog een lange weg te gaan hebben om effectief een einde te maken aan CSAM online.
Omdat Patreon een veelgebruikt platform blijft, blijft het potentieel dat CSAM op zijn platform zal worden geplaatst, bestaan, aldus de woordvoerder van Thorn. “Het internet is zo geëvolueerd dat het voor misbruikers gemakkelijk is om materiaal van seksueel misbruik van kinderen te delen binnen gemeenschappen die kunnen floreren op dezelfde platforms die we allemaal elke dag gebruiken”, zei Thorn.