Drie populaire sociale-medianetwerken worden aangeklaagd wegens claims over het veroorzaken van psychische problemen. Hier zijn de belangrijkste details.
Wat er is gebeurd: Er zijn rechtszaken aangespannen door het Social Media Victims Law Center tegen: Snap Inc SNAP eigendom van Snapchat, Meta Platforms Inc META eigendom van Facebook en TikTokeigendom van ByteDans.
De rechtszaken beschuldigen de sociale-mediaplatforms van het veroorzaken van psychische problemen bij minderjarigen, aldus The Hollywood Reporter.
Onder de klachten zijn sociale mediaplatforms die leiden tot verwondingen, waaronder eetstoornissen, angst en zelfmoord. De klachten vergelijken de platforms met defecte producten, met meer dan 20 rechtszaken die in het hele land zijn aangespannen.
“Dit is het bedrijfsmodel dat door alle gedaagden wordt gebruikt – betrokkenheid en groei boven gebruikersveiligheid – als bewijs door het inherent gevaarlijke ontwerp en de werking van hun sociale-mediaproducten”, luidde een van de klachten. “Op elk moment had elk van deze beklaagden naar voren kunnen komen en deze informatie met het publiek kunnen delen.”
De rechtszaken citeren algoritmen van de sociale-mediaplatforms die prioriteit geven aan betrokkenheid boven veiligheid, waardoor gebruikers deelnemen aan virale uitdagingen die schadelijk kunnen zijn voor hun gezondheid.
“Beklaagden kozen ervoor om door te gaan met het toebrengen van schade en verzwegen in plaats daarvan de waarheid.”
Social-mediaplatforms hebben regels tegen het openen van meerdere accounts, iets dat volgens de klachten Snapchat niet handhaaft omdat het hun gebruikersgroei helpt stimuleren. Het resultaat is meer pesten, luidt de rechtszaak.
De rechtszaken gaan over de leeftijd van gebruikers met een gebrek aan ouderlijk toezicht. TikTok heeft een minimumleeftijd van 13 jaar om lid te worden van zijn platform, maar verifieert de leeftijden niet volgens de rechtszaken.
“Elk van de producten van de beklaagde is ontworpen op een manier die bedoeld is om ouders te beletten hun recht uit te oefenen om de gezondheid en het welzijn van hun kind te beschermen en er toezicht op te houden.”
De rechtszaken beweren onder meer aansprakelijkheid, nalatigheid en inbreuk op de privacy.
Een eiser die in de meerdere rechtszaken is opgenomen, is de moeder van een kind dat zelfmoord heeft gepleegd, waarvan TikTok de schuld krijgt van ‘opzettelijk toebrengen van emotionele nood’.
Gerelateerde link: Google wint immuniteit onder deze sectie door te worden beschuldigd van dierenmishandeling
Waarom het belangrijk is: Sociale-mediaplatforms zijn al eerder het doelwit geweest van rechtszaken, waarbij veel zaken draaiden om aansprakelijkheidskwesties. Platformbedrijven omzeilen vaak zaken met Sectie 230 van de Communications Decency Act, die technologiebedrijven beschermt tegen mogelijke aansprakelijkheid van derden.
Het rapport beweert dat de rechtszaken typische claims omzeilen die zijn gericht op inhoud die op de platforms is geplaatst. In plaats daarvan behandelen de rechtszaken kwesties op basis van de algoritmen en het beleid waarbij minderjarigen betrokken zijn, wat deze zaak uniek zou kunnen maken in de strijd tegen grote technologiebedrijven.
“De beweringen van de eiser vloeien niet voort uit inhoud van derden, maar eerder uit productkenmerken en ontwerpen van gedaagden, inclusief maar niet beperkt tot algoritmen en andere productkenmerken die minderjarige gebruikers verslaafd maken, schadelijke sociale vergelijking versterken en bevorderen, (en) bevestigend selecteren en promoten schadelijke inhoud voor kwetsbare gebruikers op basis van hun geïndividualiseerde demografische gegevens en activiteiten op sociale media”, aldus de klacht.
The Hollywood Reporter maakt melding van een zaak van vorig jaar waarin een federaal hof van beroep Snapchat vertelde dat het Sectie 230 niet kon gebruiken om zichzelf te beschermen in een rechtszaak over een snelheidsmeterfunctie die was gekoppeld aan een dodelijke crash.
De rechtszaken kunnen in de toekomst nauwlettend worden gevolgd door gebruikers van sociale media, ouders en investeerders.