Condanna milionaria per i colossi del web – di Anna Lisa Maugeri

Pubblicato il 8 aprile 2026 alle ore 21:44

Foto di Stephane da Pixabay

La notizia dei giorni scorsi rappresenta un precedente giuridico che potrebbe segnare un punto di svolta sul tema della responsabilità dei giganti del web, anche oltreoceano. Parliamo della sentenza emessa da una giuria di Los Angeles il 25 marzo 2026, che condanna Meta e Google al risarcimento di 3 milioni di dollari a una giovane donna di 20 anni di nome Kaley. Anche le piattaforme TikTok e Snapchat erano state inizialmente chiamate in causa, ma hanno deciso di chiudere frettolosamente la questione patteggiando e facendo accordi riservati prima del verdetto.

Kaley ha iniziato a usare YouTube a 6 anni e Instagram a 9, arrivando a trascorrere fino a 16 ore al giorno su queste piattaforme. La sua "dipendenza da algoritmo", secondo la sentenza, ha generato un danno biologico e psicologico con conseguenze molto serie: depressione clinica, isolamento sociale e familiare, insonnia, disturbo dismorfico del corpo, autolesionismo e tendenze suicide. Le è stata diagnosticata anche una forma d’ansia sociale chiamata FOMO (acronimo inglese di Fear of Missing Out), ovvero la paura costante di essere esclusa e di perdersi qualcosa di importante quando è disconnessa. I periti hanno paragonato l'intensità della sua dipendenza a quella causata dalle sostanze stupefacenti.

Il caso di Kaley non è un’eccezione dei giorni nostri, ma è il primo ad essere stato riconosciuto legalmente. In Italia esistono oltre 100 centri specializzati nella cura della dipendenza da social network, smartphone e Internet.

La vera rivoluzione di questa sentenza sta nell'approccio giuridico. Le Big Tech si sono schermate per decenni dietro la Section 230, un articolo della legge federale Communications Decency Act (CDA) del 1996, che sancisce che la responsabilità legale dei contenuti scritti e pubblicati (compresi i commenti diffamatori) è sempre dell'utente che li ha generati e non della piattaforma che li ospita. Questa legge protegge le piattaforme anche quando decidono di moderare i contenuti o di rimuoverli perché ritenuti osceni, violenti, molesti o discutibili, senza che ciò le trasformi automaticamente in editori.

Perché è centrale nel caso di Kaley contro Meta e Google? Le Big Tech hanno provato a usare la Section 230 come scudo anche in questo caso, sostenendo che non potevano essere punite per i contenuti che Kaley aveva visualizzato. L’ostacolo è stato però aggirato concentrando l’accusa su come l'app è stata costruita.

La giuria ha stabilito che queste app sono progettate per tenere il più a lungo possibile gli utenti connessi. I giudici, più che valutare i contenuti, si sono basati sul design delle piattaforme, considerandole un "prodotto difettoso" e pericoloso per i minori. Le continue notifiche, la riproduzione automatica e lo scroll infinito creano dipendenza a danno della salute mentale. Nel caso di Kaley, è stato stabilito che il 70% della responsabilità del danno è attribuibile a Instagram (Meta) e il 30% a YouTube (Google). Il design del prodotto è intenzionalmente creato dall'azienda con quelle specifiche caratteristiche e non è un contenuto generato dagli utenti. Dunque, la Section 230 esce di scena.

Le aziende sotto accusa hanno tentato strategie difensive differenti. Google (YouTube) ha cercato di distanziarsi dalla categoria "social network", definendosi una piattaforma di streaming costruita responsabilmente e annunciando ricorso in appello. Meta (Instagram e Facebook) ha sostenuto che la salute mentale dei giovani è un tema complesso che non può essere imputato a una singola app, rivendicando l'efficacia degli strumenti di Parental Control, efficacia che però è stata contestata dalla giuria.

La condanna per il caso di Kaley è solo uno degli ultimi grattacapi per il gruppo di Mark Zuckerberg. Il giorno prima della sentenza, una giuria del New Mexico aveva condannato Meta a un risarcimento record di 375 milioni di dollari per non aver protetto i minori dai predatori sessuali sulle proprie piattaforme.

La responsabilità delle piattaforme, dunque, viene sdoganata e imporrà probabilmente ai colossi del web dei cambiamenti significativi per garantire, finalmente, la sicurezza dei più fragili. Queste sentenze faranno da "apripista" a delle class action anche in altri Paesi europei, tra cui l’Italia?

Aggiungi commento

Commenti

Non ci sono ancora commenti.