Saltar Aviso
Feed BBC

El impactante testimonio de una chica "enganchada" a compartir imágenes de autolesiones en Instagram

El impactante testimonio de una chica "enganchada" a compartir imágenes de autolesiones en Instagram
T13
Compartir
Cuando tenía 12 años, Libby empezó a hacerse cortes, sacarse fotos y subirlas a la red social. Asegura que las imágenes que veía en la plataforma aceleraron la gravedad de lo que hacía.

Cuando tenía 12 años, Libby se "enganchó" a publicar y ver imágenes de autolesiones en Instagram.

Explica que la mayoría de fotos eran sobre cortadas, quemaduras y sobredosis.

Su padre, Ian, dice que su familia denunció esas "explícitas" imágenes a Instagram, pero que la red social no hizo nada al respecto.

Libby decidió compartir su experiencia después de que la BBC publicase la historia de Molly Russell, que se suicidó en 2017, cuando tenía 14 años.

Molly Russell.
Molly Russell.

Tras su muerte, la familia de Molly indagó en las cuentas de las redes sociales que seguía, y encontró contenido sobre la depresión y las autolesiones.

"No tengo ninguna duda de que Instagram ayudó a matar a mi hija", aseguró su padre.

Ahora Libby, con 16 años, explica a la BBC que compartía imágenes de sus heridas con 8.000 seguidores, atraída por una comunidad 'online' que se caracterizaba por fotos de autolesiones.

"Estaba muy enganchada. Era como si tuviera que estar siempre siguiendo el ritmo, porque de lo contrario la gente dejaría de preocuparse", cuenta Libby.

La chica cuenta que las imágenes era principalmente sobre cortadas, quemaduras y sobredosis.

Libby asegura que, si bien Instagram no hizo que se autolesionase, las imágenes que vio en el sitio sí "aceleraron la gravedad" de las cortadas.

Ian i Libby.
Ian i Libby.

"Veía fotos de gente y me decía: 'Está bien. No importa lo grave que sea porque no están muertos, todavía no los ha matado'", cuenta Libby.

"Todo eso hacía que ir más allá pareciera seguro", añade.

El padre de Libby, Ian, se sorprendió por algunas de las imágenes que vio: "Soy exmilitar, y no vi ese tipo de cosas cuando estaba en el ejército".

Lo que le impactaba no era solo las imágenes sino también los comentarios, con consejos sobre cómo autolesionarse.

Ian recuerda algunos que decían: "No deberías haberlo hecho de esta manera, deberías haberlo hecho así. No lo hagas aquí, hazlo ahí porque sangra más".

Libby.
Libby.

La familia asegura que intentaron denunciar las imágenes a Instagram pero que recibieron como respuesta que las fotos no violaban los estándares de la comunidad.

"Si tienes un problema y quieres hablar con alguien, no hay nada", explica Ian.

"Los padres pueden hacer de todo para tratar de evitar que sus hijos usen Instagram, pero si los chicos quieren, encuentran la manera", añade.

"Instagram tiene que decir: 'Hemos creado un monstruo que no podemos controlar'", asegura Ian.

Actualmente Libby ya no se autolesiona y recibe ayuda profesional. Espera convertirse en paramédica o enfermera de salud mental.

Ian asegura que, a menos que Instagram actúe, "habrá más Libbys y más Mollys".

La respuesta de Instagram

Tras dar el pésame a la familia de Molly, Instagram explicó que sus ingenieros trabajaban para empezar a hacer cambios para que sea más difícil buscar y encontrar contenido de autolesión.

La empresa, propiedad de Facebook, reconoció que tenía una "gran responsabilidad" a la hora de garantizar la seguridad de los jóvenes de su red social y afirmó que revisaría sus políticas sobre este tipo de contenidos.

La compañía también dijo que restringiría la capacidad de los usuarios para encontrar el contenido a través de 'hashtags' o etiquetas, que introduciría avisos de sensibilidad sobre el contenido de autolesiones y que dejaría de recomendar cuentas con cierto tipo de materiales.

El nuevo vicepresidente de Facebook, Nick Clegg, dijo que la compañía hará "lo que sea necesario" para que esta red social sea más segura para los jóvenes.

La incidencia de los algoritmos

El corresponsal de la BBC Angus Crawford asegura que gran parte del problema son los algoritmos de Instagram, que ayudan a los usuarios a localizar contenido relacionado con el que han consultado.

Estos códigos analizan todo lo que hacemos en la red y sugieren material parecido.

Así, por ejemplo, si nos gustan las fotos de perritos, nos ofrecerá más. De igual manera, si buscamos material sobre autolesiones y suicidio, el algoritmo puede empujarnos cada vez más por ese camino.

Instagram ha comenzado a hacer cambios, pero aquí está el dilema: ¿cómo se modifica un algoritmo para hacer que la gente esté más segura si, a la vez, esos cambios podrían socavar el modelo de negocio en el que se basan?

Señal T13 En Vivo
Etiquetas de esta nota