Après le suicide d'une utilisatrice d'Instagram âgée de 14 ans, Meta s'excuse pour (certains) des contenus d'automutilation et de suicide qu'elle a vus.

Meta's est désolé, mais dit aussi que ce n'est pas "une question binaire".

Un cadre supérieur de Meta a présenté ses excuses lundi pour avoir permis à une adolescente britannique de consulter des posts Instagram graphiques liés à l'automutilation et au suicide avant de mettre fin à ses jours.

La responsable de la santé et du bien-être de Meta, Elizabeth Lagone, a déclaré lors d'une enquête sur les circonstances de la mort de Molly Russell au tribunal du coroner du nord de Londres que l'adolescente avait "regardé certains contenus qui violaient nos politiques et nous le regrettons."

Russell était une jeune fille de 14 ans de Harrow, à Londres, qui s'est suicidée en novembre 2017 après avoir consulté une grande quantité de contenu sur Instagram et Pinterest de Meta, relatif à l'anxiété, la dépression et l'automutilation. Au cours des six derniers mois de sa vie, Russell avait enregistré 16 300 images sur son compte Instagram, dont 2 100 étaient liées à la dépression et au suicide.

Lagone a déclaré au tribunal : "Nous sommes désolés que Molly ait vu du contenu qui violait nos politiques, et nous ne voulons pas de cela sur la plate-forme", mais il n'a pas condamné tous les contenus controversés sur l'Instagram de Russell.

M. Lagone a fait valoir qu'il ne s'agissait pas d'une "question binaire", à savoir si le contenu lié à l'automutilation et à la dépression visionné par M. Russell - et qui a été jugé conforme aux politiques de Meta - était sans danger pour les enfants, et a déclaré au tribunal que "certaines personnes pourraient trouver du réconfort" en sachant qu'elles n'étaient pas seules.

Le coroner principal de l'enquête, Andrew Walker, a interrompu la procédure pour demander à Lagone : "Donc vous dites que oui, c'est sûr... ?". Lagone a répondu : "Oui, c'est sûr".

Un contenu nuancé et compliqué

Après avoir passé en revue un grand nombre de posts relatifs au suicide et à l'automutilation qui ont été sauvegardés, aimés et partagés par Molly au cours des six derniers mois de sa vie, Lagone a fait valoir que la plupart étaient "dans l'ensemble admissifs", parce que beaucoup de ces personnes racontaient leurs expériences avec des luttes de santé mentale et faisaient potentiellement un appel à l'aide.

M. Lagone affirme qu'Instagram a entendu "une majorité écrasante d'experts" dire que la société ne devrait "pas chercher à supprimer [certains contenus liés à la dépression et à l'automutilation] en raison de la stigmatisation et de la honte supplémentaires qu'ils peuvent causer aux personnes qui luttent contre la maladie", notant que le contenu était "nuancé" et "compliqué".

L'avocat de la famille Russell, Oliver Sanders, s'est emporté en réponse aux réponses de Lagone, demandant : "Pourquoi diable faites-vous cela ? ... vous avez créé une plate-forme qui permet aux gens de mettre du contenu potentiellement dangereux sur elle [et] vous invitez les enfants sur la plate-forme. Vous ne savez pas où se trouve la balance des risques."

"Vous n'avez pas le droit de le faire. Vous n'êtes pas leur parent. Vous n'êtes qu'une entreprise en Amérique", a soutenu Sanders.

Au moment de la mort de Russell, Instagram a autorisé la publication de messages graphiques sur sa plateforme faisant référence au suicide et à l'automutilation, ce qui, selon eux, a créé un espace pour que les gens cherchent de l'aide et du soutien. En 2019, il a fait volte-face sur cette politique et a interdit toutes les images graphiques d'automutilation, notant à l'époque : "collectivement, il a été conseillé [par des experts en santé mentale] que les images graphiques d'automutilation - même lorsque c'est quelqu'un qui admet ses luttes - ont le potentiel de promouvoir involontairement l'automutilation."

Les plateformes de médias sociaux ont jusqu'à présent opéré dans un Far West réglementaire qui a donné la priorité à la croissance rapide, à l'engagement et au temps passé sur leur plateforme à visionner du contenu, au détriment de nombreuses fonctions de sécurité. Mais aujourd'hui, les géants de la technologie sont de plus en plus nombreux à réclamer une plus grande surveillance de la façon dont les algorithmes diffusent des contenus qui peuvent être dangereux pour les utilisateurs qui s'y engagent.

L'une des plus importantes dénonciatrices dans ce domaine, Frances Haugen, a divulgué une énorme quantité de données internes dans le rapport Facebook Papers, selon lequel le géant des médias sociaux Meta - qui s'appelait encore Facebook - a négligé la sécurité des utilisateurs dans sa quête de profit.

Des recherches internes à l'entreprise ont révélé qu'Instagram était particulièrement nocif pour une grande partie des jeunes utilisateurs, et avait un impact profondément négatif sur les adolescentes.

Ian Russell, le père de Molly Russell, a déclaré à l'enquête la semaine dernière qu'il pense que les algorithmes des plateformes de médias sociaux ont poussé sa fille vers des posts graphiques et dérangeants et ont contribué à sa mort.

Meta n'a pas immédiatement répondu à la demande de commentaire de Fortune.