Sectie 230 beschermt TikTok in kinderrechtszaak “Blackout Challenge”

0
21


Sectie 230 beschermt TikTok in kinderrechtszaak

Terwijl rechtszaken zich blijven opstapelen tegen sociale-mediaplatforms wegens vermeende schade aan kinderen, heeft een rechtbank in Pennsylvania geoordeeld dat TikTok niet aansprakelijk is in één geval waarin een 10-jarige genaamd Nylah Anderson stierf na een poging om een ​​”Blackout Challenge” te voltooien. ontdekt op haar “For You”-pagina.

De uitdaging beveelt gebruikers aan zichzelf te stikken totdat ze flauwvallen, en Nylah’s moeder, Tawainna Anderson, beweerde aanvankelijk dat het defecte algoritme van TikTok verantwoordelijk was voor het bewust doorgeven van de dodelijke video aan haar kind. De moeder hoopte dat Sectie 230-bescherming onder de Communications Decency Act – die sociale platforms immuniteit verleent voor inhoud die door derden is gepubliceerd – niet van toepassing zou zijn in de zaak, maar uiteindelijk vond de rechter dat TikTok immuun was.

Het “algoritme van TikTok was een manier om de uitdaging onder de aandacht te brengen van degenen die er waarschijnlijk het meest in geïnteresseerd zijn”, schreef rechter Paul Diamond in een memorandum voordat hij zijn bevel uitvaardigde. “Door zo het werk van anderen te promoten, hebben gedaagden dat werk gepubliceerd – precies de activiteit die sectie 230 beschermt tegen aansprakelijkheid. De wijsheid van het verlenen van een dergelijke immuniteit is iets dat goed is opgepakt door het Congres, niet door de rechtbanken.”

Dit is niet de enige rechtszaak die probeert TikTok aansprakelijk te stellen voor de dood van kinderen van de ‘Blackout Challenge’. Andere rechtszaken die deze zomer in Californië zijn aangespannen, zijn nog in behandeling, maar deze bevatten vergelijkbare argumenten met betrekking tot het zogenaamd defecte algoritme van TikTok. Diamond suggereerde dat Nylah’s moeder “de immuniteit van Sectie 230 niet kan verslaan”, simpelweg “door haar beweringen creatief te labelen”. Zijn oordeel suggereert dat die andere lopende rechtszaken niet beter zullen presteren in het overwinnen van het effectieve schild dat Sectie 230 sociale-mediabedrijven als uitgevers biedt, ongeacht de uitkomst van hoe algoritmen zijn ontworpen om inhoud aan te bevelen.

“Omdat Andersons ontwerpfout en het niet-waarschuwingen van claims ‘onlosmakelijk verbonden’ zijn met de manier waarop gedaagden ervoor kiezen om gebruikersinhoud van derden te publiceren, is immuniteit van sectie 230 van toepassing”, schreef Diamond.

Anderson’s advocaten bij Jeffrey Goodman, Saltz Mongeluzzi & Bendesky PC, hebben Ars een verklaring gegeven over de uitspraak:

“De familie Anderson zal blijven vechten om sociale media veilig te maken, zodat geen enkel ander kind wordt gedood door het roekeloze gedrag van de sociale media-industrie. De federale Communications Decency Act was nooit bedoeld om sociale-mediabedrijven toe te staan ​​gevaarlijke inhoud naar kinderen te sturen, en de Andersons zullen blijven pleiten voor de bescherming van onze kinderen tegen een industrie die de jeugd uitbuit in naam van winst.”

TikTok heeft Ars niet meteen een verklaring over de uitspraak bezorgd.

Hoewel dit vonnis waarschijnlijk wordt beschouwd als een groot verlies voor voorstanders van kinderveiligheid, heeft het advocatenkantoor Seeger Weiss LLP onlangs aangekondigd dat het “een nieuwe benadering van rechtszaken tegen sociale-mediabedrijven die de bescherming geboden door Sectie 230 omzeilt.” Het advocatenkantoor zei dat het tientallen rechtszaken heeft aangespannen waarbij het al meer dan 1.000 klanten vertegenwoordigt – en nog steeds op zoek is naar meer klanten – “die beweren dat het ontwerp van sociale-mediaplatforms ernstige schade toebrengt aan kinderen, waaronder angst, depressie, eetstoornissen, seksuele uitbuiting en zelfmoord.” Deze rechtszaken zijn veel breder dan alleen TikTok en richten zich op andere sociale platforms van Meta en Snap.

Seeger Weiss LLP reageerde niet onmiddellijk op het verzoek van Ars om commentaar om te verduidelijken hoe effectief zijn “nieuwe aanpak” zou kunnen zijn in het daadwerkelijk verslaan van Sectie 230-beschermingen, gezien de uitspraak van deze week in het voordeel van TikTok.

De beweringen van Anderson dat TikTok de verantwoordelijkheid heeft om zijn algoritme niet te ontwerpen om gevaarlijke inhoud aan kinderen aan te bevelen, ontkennend, citeerde Diamond in zijn uitspraak het 2e circuit door te ontdekken dat “tools zoals algoritmen die zijn ontworpen om informatie te matchen met de interesses van een consument” zijn “ruim binnen het bereik van uitgeversfuncties die onder Sectie 230 vallen.”

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in