La Cour suprême a décidé aujourd’hui que les entreprises technologiques ne sont pas responsables du contenu terroriste publié sur leurs plateformes. Le procès, initié par la famille d’une victime d’une attaque de l’Etat islamique en 2017, a fait valoir que Twitter, Facebook et Google devraient être tenus responsables d’avoir permis à l’organisation terroriste d’utiliser leurs plateformes dans ses efforts de terrorisme. Cependant, le tribunal a décidé à l’unanimité que le procès ne pouvait pas se poursuivre. Le juge Clarence Thomas, écrivant pour le tribunal unanime dans Twitter c. Taamneh, a précisé que les plateformes de médias sociaux ne sont pas coupables, même si des acteurs infâmes utilisent ces plateformes à des fins illégales et parfois terribles. L’argument avancé par la famille de la victime, selon lequel les entreprises technologiques devraient être tenues pour responsables de l’échec présumé à empêcher l’Etat islamique d’utiliser ces plateformes, manquait du lien nécessaire entre les entreprises technologiques et l’attaque terroriste pour établir la responsabilité. Le juge Ketanji Brown Jackson, dans une brève opinion concordante, a souligné que l’opinion du tribunal était étroite à certains égards importants. Elle a suggéré que d’autres cas avec des allégations et des dossiers différents pourraient conduire à des conclusions différentes.
Impact de l’affaire Gonzalez contre Google
Suite à l’arrêt Twitter, la Cour suprême s’est penchée sur l’affaire Gonzalez contre Google, une action en justice intentée par la famille de Nohemi Gonzalez, une Américaine de 23 ans tuée lors de l’attaque de l’Etat islamique en 2015 contre un café parisien. La famille Gonzalez a fait valoir que Google, par le biais de sa propriété de YouTube, a aidé le recrutement de l’Etat islamique en permettant au groupe terroriste de publier sur YouTube des vidéos incitant à la violence et cherchant à recruter des membres potentiels de l’Etat islamique. La famille a également affirmé que les algorithmes de Google recommandaient les vidéos ISIS aux utilisateurs. La Cour d’appel des États-Unis pour le 9e circuit a précédemment jugé que l’article 230 du Communications Decency Act de 1996, qui protège les entreprises technologiques de toute responsabilité pour le contenu publié par les utilisateurs, protégeait ces recommandations. Cependant, à la lumière de la décision Twitter, la Cour suprême a annulé ce jugement et renvoyé l’affaire pour réexamen. Le tribunal s’est abstenu de décider de la portée de l’article 230, suggérant qu’il valait mieux laisser cette question au Congrès ou à une affaire future. Certains membres du Congrès sont très attachés à la réforme de la section 230, estimant qu’elle offre trop de protection aux géants de la technologie. Le bureau du sénateur Mark Warner, critique vocal et défenseur des réformes de l’article 230, a fourni une déclaration au Search Engine Journal concernant la décision dans l’affaire Gonzalez contre Google. Il qualifie l’article 230 d’ancien et obsolète, arguant qu’il s’agit d’une «carte de sortie de prison gratuite» pour les grandes entreprises. « Depuis des années, je dis que le Congrès doit prendre des mesures pour remédier à la protection étendue que la section 230 accorde aux entreprises technologiques. Cette loi désuète a perdu son utilité et a fourni aux plus grandes sociétés de plates-formes une « carte gratuite de sortie de prison », car leurs sites sont utilisés par des escrocs, des harceleurs et des extrémistes violents. » Le sénateur Warner, cependant, indique clairement qu’il ne considère pas la réforme de l’article 230 comme une ouverture des vannes pour des réclamations massives en responsabilité contre les sociétés de plateforme. « La réforme de l’article 230 ne signifie pas que les plateformes seront automatiquement soumises à des réclamations massives en responsabilité ; les victimes devront encore prouver leur cas devant le tribunal.
En résumé
Ces cas mettent collectivement en évidence le débat en cours concernant la responsabilité des entreprises technologiques dans la modération du contenu généré par les utilisateurs et la mesure dans laquelle elles peuvent être tenues responsables du contenu préjudiciable partagé sur leurs plateformes. Les décisions de la Cour suprême indiquent que, du moins pour l’instant, un lien direct entre les actions des entreprises technologiques et des actes de terrorisme spécifiques est nécessaire pour établir la responsabilité légale. Néanmoins, les commentaires de la cour suggèrent que des circonstances différentes pourraient entraîner des résultats différents.
Sources: SCOTUS Image sélectionnée générée par l’auteur à l’aide de Midjourney.