Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
La big tech a dominé tous les concurrents pendant 30 ans, mais fait face pour la première fois à quelque chose qu'elle ne peut pas contrôler : un jury
Une salle d’audience à Los Angeles accueille ce qui pourrait devenir le défi juridique le plus important que Big Tech ait jamais affronté.
Vidéo recommandée
C’est un tournant dans le débat mondial sur la responsabilité des géants du numérique : pour la première fois, un jury américain doit décider si la conception même d’une plateforme peut engager la responsabilité du produit – non pas à cause de ce que les utilisateurs y publient, mais en raison de la façon dont elle a été construite.
En tant que spécialiste en politique technologique et droit, je pense que la décision, quel que soit le résultat, entraînera probablement un effet domino puissant aux États-Unis et dans le monde entier.
L’affaire
La plaignante est une jeune femme californienne de 20 ans, identifiée par ses initiales, K.G.M. Elle a déclaré avoir commencé à utiliser YouTube vers l’âge de 6 ans et créé un compte Instagram à 9 ans. Son procès et ses témoignages allèguent que les caractéristiques de conception des plateformes, telles que les likes, les moteurs de recommandation algorithmique, le défilement infini, la lecture automatique et les récompenses délibérément imprévisibles, l’ont rendue dépendante. La plainte affirme que cette dépendance a alimenté la dépression, l’anxiété, la dysmorphie corporelle – lorsque quelqu’un se voit comme laid ou défiguré alors qu’il ne l’est pas – et des pensées suicidaires.
TikTok et Snapchat ont réglé à l’amiable avec K.G.M. avant le procès pour des sommes non divulguées, laissant Meta et Google comme défendeurs restants. Le PDG de Meta, Mark Zuckerberg, a témoigné devant le jury le 18 février 2026. Meta a également été cité à comparaître dans une autre affaire où il est allégué qu’Instagram est conçu pour être addictif.
Les enjeux dépassent largement une seule plaignante. L’affaire K.G.M. est un procès emblématique, ce qui signifie que le tribunal l’a choisi comme cas test représentatif pour aider à déterminer les verdicts dans toutes les affaires connexes. Ces affaires impliquent environ 1 600 plaignants, dont plus de 350 familles et plus de 250 districts scolaires. Leurs revendications ont été regroupées dans une procédure de coordination du Conseil judiciaire de Californie, n° 5255.
La procédure californienne partage des équipes juridiques et un pool de preuves, y compris des documents internes de Meta, avec une procédure fédérale de litiges multidistricts qui doit progresser plus tard cette année, rassemblant des milliers de poursuites fédérales.
Innovation juridique : la conception comme défaut
Depuis des décennies, l’article 230 de la loi sur la décence des communications protégeait les entreprises technologiques de toute responsabilité pour le contenu publié par leurs utilisateurs. Lorsqu’on poursuivait pour des dommages liés aux médias sociaux, les entreprises invoquaient l’article 230, et les affaires tombaient généralement rapidement.
Le litige K.G.M. utilise une stratégie juridique différente : la responsabilité du produit basée sur la négligence. Les plaignants soutiennent que le préjudice ne provient pas du contenu de tiers, mais des décisions d’ingénierie et de conception des plateformes, de l’« architecture informationnelle » et des fonctionnalités qui façonnent l’expérience des utilisateurs. Le défilement infini, la lecture automatique, les notifications calibrées pour augmenter l’anxiété et les systèmes de récompense variables fonctionnent selon les mêmes principes comportementaux que les machines à sous.
Ce sont des choix de conception produits délibérés, et les plaignants soutiennent qu’ils devraient être soumis aux mêmes obligations de sécurité que tout autre produit manufacturé, rendant leurs fabricants responsables en cas de négligence, de responsabilité stricte ou de violation de la garantie de conformité.
La juge Carolyn Kuhl de la Cour supérieure de Californie a convenu que ces revendications méritaient un procès devant jury. Dans sa décision du 5 novembre 2025, rejetant la demande de jugement sommaire de Meta, elle a distingué entre les fonctionnalités liées à la publication de contenu, qui pourraient être protégées par l’article 230, et celles comme le timing des notifications, les boucles d’engagement et l’absence de contrôles parentaux significatifs, qui ne le seraient pas.
Ici, Kuhl a établi que la distinction entre conduite et contenu – traitant les choix de conception algorithmique comme la conduite propre de l’entreprise plutôt que comme la publication protégée de discours tiers – était une théorie juridique viable pour une évaluation par un jury. Cette approche fine, évaluant chaque fonctionnalité individuellement et reconnaissant la complexité accrue de la conception des produits technologiques, pourrait servir de modèle pour les tribunaux à l’échelle nationale.
Ce que les entreprises savaient
La théorie de la responsabilité du produit dépend en partie de ce que les entreprises savaient des risques liés à leurs conceptions. La fuite en 2021 de documents internes de Meta, connus sous le nom de « Facebook Papers », a révélé que les chercheurs de l’entreprise avaient signalé des préoccupations concernant l’impact d’Instagram sur l’image corporelle et la santé mentale des adolescents.
Les communications internes divulguées dans la procédure K.G.M. incluent des échanges entre employés de Meta comparant les effets de la plateforme à la consommation de drogues ou aux jeux de hasard. La question centrale pour le jury est de savoir si cette conscience interne constitue la connaissance d’entreprise qui pourrait soutenir une responsabilité.
Il existe une analogie claire avec les litiges sur le tabac. Dans les années 1990, les plaignants ont réussi contre les compagnies de tabac en prouvant qu’elles avaient dissimulé des preuves sur la nature addictive et mortelle de leurs produits. Dans le cas K.G.M., les plaignants avancent le même argument central : là où il y a connaissance d’entreprise, ciblage délibéré et déni public, la responsabilité s’ensuit.
L’avocat principal de K.G.M., Mark Lanier, est le même qui a obtenu des verdicts multibillionnaires dans le litige Johnson & Johnson sur la poudre pour bébé, ce qui montre l’ampleur de la responsabilité qu’ils poursuivent.
La science : contestée mais cruciale
Les preuves scientifiques sur les médias sociaux et la santé mentale des jeunes sont réelles mais très complexes. Le Manuel diagnostique et statistique des troubles mentaux (DSM-5) ne classe pas l’utilisation des médias sociaux comme un trouble addictif. Des chercheurs comme Amy Orben ont trouvé que de grandes études montrent de faibles associations moyennes entre l’utilisation des médias sociaux et une réduction du bien-être.
Cependant, Orben elle-même met en garde contre le fait que ces moyennes peuvent masquer des dommages graves subis par un sous-ensemble vulnérable de jeunes utilisateurs, notamment les filles de 12 à 15 ans. La question juridique dans le cadre de la négligence n’est pas de savoir si les médias sociaux nuisent à tous de la même manière, mais si les concepteurs de plateformes avaient l’obligation de prendre en compte les interactions prévisibles entre leurs fonctionnalités et la vulnérabilité des jeunes en développement, surtout lorsque des preuves internes suggéraient qu’ils étaient conscients des risques.
Premièrement, un fabricant doit exercer une diligence raisonnable dans la conception de son produit, et cette obligation s’étend aux dommages raisonnablement prévisibles. Deuxièmement, le plaignant doit démontrer que le type de blessure subi était une conséquence prévisible du choix de conception. Le fabricant n’a pas besoin d’avoir prévu précisément la blessure pour le plaignant exact, mais la catégorie générale de préjudice doit être dans la gamme de ce qu’un concepteur raisonnable aurait anticipé.
C’est pourquoi les Facebook Papers et la recherche interne de Meta sont si importantes juridiquement dans l’affaire K.G.M. : elles permettent d’établir que les chercheurs de l’entreprise ont identifié les catégories spécifiques de préjudice – dépression, dysmorphie corporelle, comportements compulsifs chez les adolescentes – que la plaignante affirme avoir subies. Si les données internes de l’entreprise ont signalé ces risques et que la direction a poursuivi dans la même voie de conception, cela renforcerait considérablement l’élément de prévisibilité.
Pourquoi cela importe
Même si la science reste incertaine, le paysage juridique et politique évolue rapidement. En 2025, 20 États américains ont adopté de nouvelles lois régissant l’utilisation des médias sociaux par les enfants. Et cette vague ne se limite pas aux États-Unis ; des pays comme le Royaume-Uni, l’Australie, le Danemark, la France et le Brésil avancent également dans la législation spécifique, notamment en interdisant les médias sociaux aux moins de 16 ans.
Le procès K.G.M. représente quelque chose de plus fondamental : la proposition que les décisions de conception algorithmique sont des décisions de produit, portant de véritables obligations de sécurité et de responsabilité. Si ce cadre s’impose, chaque plateforme devra reconsidérer non seulement le contenu qui apparaît, mais aussi pourquoi et comment il est livré.
Carolina Rossini, Professeure praticienne et Directrice du programme, Initiative pour la technologie d’intérêt public, UMass Amherst
Cet article est republié de The Conversation sous licence Creative Commons. Lire l’article original.
En 2001, Fortune a lancé « Les personnes les plus intelligentes que nous connaissons », réunissant PDG, fondateurs, bâtisseurs, investisseurs, penseurs et acteurs. Depuis, Fortune Brainstorm Tech est l’endroit où les idées audacieuses se rencontrent. Du 8 au 10 juin, nous retournerons à Aspen — là où tout a commencé — pour célébrer les 25 ans de Brainstorm. Inscrivez-vous dès maintenant.