Un tribunal du Massachusetts a statué que Meta Platforms doit faire face à une action en justice concernant des allégations selon lesquelles son service Instagram a été conçu pour favoriser l’addiction chez les enfants.
La décision, rendue vendredi par la Cour suprême du Massachusetts, rejette l’argument de Meta selon lequel l’entreprise serait protégée par la loi fédérale. Les juges ont convenu à l’unanimité que l’affaire pouvait suivre son cours, marquant un tournant majeur dans la régulation des réseaux sociaux.
La Section 230 ne protège plus la conception des plateformes
Au centre de ce litige se trouve la Section 230 du Communications Decency Act. Ce texte bouclier protège habituellement les géants de la tech de toute responsabilité juridique concernant les contenus publiés par leurs utilisateurs.
Cependant, la cour a estimé que cette immunité ne s’applique pas dans ce cas précis, car les accusations se concentrent sur la manière dont la plateforme elle-même a été construite.
Dans son avis, la juge Dalila Argaez Wendlandt a précisé que la plainte ne cherche pas à tenir Meta responsable des publications des tiers. Elle cible plutôt les actions délibérées de l’entreprise dans le développement de son interface.
« Les plaintes allèguent un préjudice découlant de la propre conduite de Meta, soit en concevant une plateforme de médias sociaux qui exploite les vulnérabilités développementales des enfants, soit en trompant activement les consommateurs sur la sécurité d’Instagram », a écrit la juge Wendlandt.
Des fonctionnalités conçues pour la dépendance
L’affaire a été portée par Andrea Joy Campbell, procureure générale du Massachusetts. Elle soutient que des fonctionnalités telles que le défilement infini (endless scrolling), les notifications intrusives et les mentions « j’aime » ont été spécifiquement intégrées pour maximiser le temps passé par les jeunes utilisateurs sur l’application.
Ses services affirment que Meta comprenait parfaitement les risques liés à l’addiction numérique, mais a délibérément choisi de ne pas modifier ses algorithmes.
Mme Campbell a salué cette décision, la qualifiant d’« étape majeure pour tenir ces entreprises responsables de pratiques qui ont alimenté la crise de la santé mentale chez les jeunes et privilégié les profits au détriment des enfants ».
Un précédent juridique pour les géants de la Tech
De son côté, Meta nie ces allégations, affirmant avoir pris de nombreuses mesures pour améliorer la sécurité des adolescents.
Néanmoins, cette décision est historique : c’est la première fois qu’une haute cour d’État stipule clairement que la Section 230 ne protège pas une entreprise contre des poursuites liées à ses propres choix de conception.
Ce précédent pourrait influencer des centaines d’autres affaires similaires à travers les États-Unis.
Partout dans le pays, des districts scolaires et des familles ont déposé des plaintes accusant Meta, Google et TikTok de créer des produits dont il est difficile de se détacher.
À Los Angeles, un procès récent a déjà reconnu Meta et Google coupables de négligence, accordant des dommages et intérêts à un jeune utilisateur lésé. Désormais, au Massachusetts, Meta devra défendre la structure même d’Instagram devant un jury, et non plus seulement le contenu qui y circule


