Technologie

Wie Gerichte soziale Medien als fehlerhaftes Produkt behandeln

Eine juristische Revolution ist im Gange, da Gerichte traditionelles Produkthaftungsrecht auf Social-Media-Plattformen anwenden und süchtig machende Designmerkmale wie Infinite Scroll und algorithmische Feeds genauso behandeln wie fehlerhafte Bremsen oder giftige Chemikalien.

R
Redakcia
4 Min. Lesezeit
Teilen
Wie Gerichte soziale Medien als fehlerhaftes Produkt behandeln

Wenn Software zum fehlerhaften Produkt wird

Jahrzehntelang regelte das Produkthaftungsrecht die physische Welt – fehlerhafte Autobremse, kontaminierte Lebensmittel, explodierende Batterien. Wenn ein Hersteller ein gefährliches Produkt verkaufte, konnten die Gerichte das Unternehmen zur Verantwortung ziehen. Nun wird derselbe Rechtsrahmen auf etwas weit weniger Greifbares angewendet: Social-Media-Plattformen.

Gerichte in den gesamten Vereinigten Staaten lassen zunehmend Klagen zu, die Apps wie Instagram und YouTube nicht als neutrale Kommunikationsmittel behandeln, sondern als konstruierte Produkte, deren Design fehlerhaft sein kann. Diese Verschiebung hat eine neue Front im Rechtsstreit über die Rechenschaftspflicht der Technologie eröffnet, mit mehr als 10.000 Einzelklagen und fast 800 Klagen von Schulbezirken, die landesweit anhängig sind.

Drei Haftungstheorien

Produkthaftungsansprüche gegen Social-Media-Unternehmen beruhen im Allgemeinen auf drei Rechtstheorien, denselben, die seit Generationen gegen Autohersteller und Pharmaunternehmen verwendet werden.

Konstruktionsfehler

Kläger argumentieren, dass Funktionen wie Infinite Scroll, Autoplay, Push-Benachrichtigungen und algorithmische Inhaltskuratierung absichtlich entwickelt wurden, um die Bildschirmzeit zu maximieren, insbesondere bei jungen Nutzern. Gemäß dem Restatement (Third) of Torts liegt ein Konstruktionsfehler eines Produkts vor, wenn ein vernünftiges alternatives Design das Schadensrisiko verringert hätte. Die Kläger argumentieren, dass Plattformen Zeitlimits, Reibungspunkte oder altersgerechte Standardeinstellungen hätten einbauen können – sich aber für Engagement statt Sicherheit entschieden haben.

Unterlassene Warnung

Diese Ansprüche machen geltend, dass Unternehmen wussten, dass ihre Produkte psychische Risiken für Kinder und Jugendliche bergen – einschließlich Depressionen, Angstzustände und Körperdysmorphie –, diese Gefahren aber weder den Nutzern noch ihren Eltern mitgeteilt haben. Im Gegensatz zu Pharmazeutika, die sich auf Ärzte als Vermittler für die Risikokommunikation verlassen können, werden Social-Media-Apps direkt an Minderjährige vermarktet, wodurch keine Pufferzone zwischen dem Produkt und dem gefährdeten Nutzer entsteht.

Fahrlässigkeit

Weiter gefasste Fahrlässigkeitsansprüche argumentieren, dass Plattformen ihren jüngsten Nutzern eine Sorgfaltspflicht schuldeten und diese verletzten, indem sie Engagement-Metriken über das Wohlbefinden stellten. Interne Unternehmensdokumente, die durch Offenlegung und Whistleblower-Enthüllungen bekannt wurden, haben gezeigt, dass einige Plattformen Forschungen durchgeführt haben, die Schäden für die psychische Gesundheit von Teenagern identifizierten – und sich dann entschieden, nicht auf die Ergebnisse zu reagieren.

Das Problem mit Section 230 – und wie Kläger es umgehen

Section 230 des Communications Decency Act schützt Plattformen seit langem vor der Haftung für Inhalte, die von ihren Nutzern veröffentlicht werden. Technologieunternehmen haben argumentiert, dass sich diese Immunität auch auf Sucht-bezogene Ansprüche erstreckt.

Die Kläger haben eine entscheidende Unterscheidung gefunden, die von den Gerichten akzeptiert wird: Plattformdesign ist nicht dasselbe wie Plattforminhalt. Wie das Berufungsgericht des Ninth Circuit in Lemmon v. Snap urteilte, zielt eine Klage wegen fahrlässigen Designs auf Entscheidungen ab, die das Unternehmen beim Bau seines Produkts getroffen hat – nicht auf redaktionelle Entscheidungen über Äußerungen Dritter. Ansprüche, die auf Funktionen wie Autoplay oder Empfehlungsalgorithmen abzielen und nicht auf bestimmte Beiträge oder Videos, können außerhalb des Schutzschilds von Section 230 verfolgt werden.

Diese Unterscheidung zwischen Design und Inhalt ist zum juristischen Dreh- und Angelpunkt der gesamten Prozesswelle geworden. Ansprüche, die eine sicherere Inhaltsmoderation anstreben, berühren weiterhin Section 230, aber Ansprüche, die auf eigenständige Produktmerkmale abzielen – die Slot-Machine-Mechanik der Benutzeroberfläche selbst – überstehen zunehmend Anträge auf Abweisung.

Das richtungsweisende Urteil

Im März 2026 fällte eine Jury in Los Angeles ein bahnbrechendes Urteil in KGM v. Meta & YouTube, dem ersten richtungsweisenden Prozess in MDL No. 3047. Die Jury befand sowohl Meta als auch Google für fahrlässig und haftbar in allen Anklagepunkten und sprach 6 Millionen Dollar an Schadensersatz und Strafschadenersatz zu. Es war das erste Mal, dass eine Jury zu dem Schluss kam, dass Social-Media-Apps als fehlerhafte Produkte behandelt werden sollten, weil sie so konstruiert wurden, dass sie sich die Entwicklung des Gehirns zunutze machen.

Die Klägerin, die nur als KGM identifiziert wurde, sagte aus, dass sie im Alter von sechs Jahren begann, YouTube zu nutzen, und im Alter von neun Jahren Instagram, und dass der zwanghafte Gebrauch zu Depressionen, Körperdysmorphie und Suizidgedanken beitrug. TikTok und Snapchat einigten sich vor dem Prozess auf ihre Ansprüche.

Warum es über einen einzelnen Fall hinaus von Bedeutung ist

Das KGM-Urteil ist für andere Gerichte nicht bindend, aber als erster richtungsweisender Fall in einem massiven Multidistriktprozess hat es ein erhebliches Überzeugungsgewicht. Rechtsanalysten haben den Moment mit den frühen Tabakprozessen in den 1990er Jahren verglichen, als Geschworene erstmals Zigarettenhersteller für den wissentlichen Verkauf von süchtig machenden Produkten zur Verantwortung zogen.

Die Auswirkungen reichen weit über die sozialen Medien hinaus. Wenn die Gerichte allgemein akzeptieren, dass Software-Designentscheidungen Produktfehler darstellen können, könnte derselbe Rahmen auf KI-Systeme, Empfehlungsmaschinen, Gaming-Plattformen und jedes digitale Produkt angewendet werden, dessen Design vorhersehbar Schaden verursacht. Für Technologieunternehmen ist die Botschaft klar: Wie Sie Ihr Produkt bauen, hat jetzt das gleiche rechtliche Gewicht wie das, was Sie in eine Flasche oder hinter ein Lenkrad stecken.

Dieser Artikel ist auch in anderen Sprachen verfügbar:

Bleib auf dem Laufenden!

Folge uns auf Facebook für die neuesten Nachrichten und Artikel.

Folge uns auf Facebook

Verwandte Artikel