Para Nasim Aghdam, YouTube era su forma de vida. Y este martes fue también el escenario ?y, presumiblemente, la motivación? de su muerte.
La mujer de 39 años irrumpió en la sede de Youtube en San Bruno, en el norte de California, Estados Unidos, armada con una pistola, hiriendo a tres empleados de la compañía de videos de línea y suicidándose después.
La policía dijo que cuando los agentes entraron al edificio la encontraron muerta por una "herida de bala que creemos fue autoinfligida".
El caso todavía está siendo investigado, pero las hipótesis apuntan a que Aghdam realizó el ataque porque estaba enojada con YouTube, algo que su padre ha declarado a varios medios estadounidenses.
La estadounidense de origen iraní se describía a sí misma como una activista de los derechos de los animales, una atleta y una artista vegana.
Y había acusado a la plataforma de videos de Google de bloquear y censurar sus publicaciones en sus varios canales en inglés, farsi y turco: "YouTube filtró mis canales para evitar que consigan visitas", escribió en su página web.
En una publicación de Instagram del 18 de marzo, expresó que YouTube usa sus herramientas para "censurar y suprimir a quienes quieren contar la verdad y no encajan con los avances financieros y políticos del sistema y los grandes negocios".
Pero ¿a qué herramientas se refería Aghdam y en qué casos puede YouTube restringir el contenido que publicas en su plataforma?
Desmonetización y filtros de contenido
Aghdam se quejaba de que la empresa había desmonetizado sus videos: dejado de pagarle por el contenido que publicaba.
"¿0,10 dólares por 300.000 reproducciones?", se quejaba.
Por ejemplo, aseguraba que YouTube impuso una restricción de edad en uno de sus videos de fitness porque era demasiado subido de tono, algo que sí permitía a cantantes como Miley Cyrus o Nicki Minaj aunque el contenido no fuera apropiado para niños, según Aghdam.
"Estoy siendo discriminada y filtrada en YouTube y no soy la única", llegó a declarar. "No hay libertad de expresión, no existen iguales oportunidades de crecimento".
Ciertamente, Aghdam no es la única youtuber que ha protestado sobre las políticas de la empresa.
De hecho, ella misma publicó en su sitio web un video de Casey Neistat, una de las más populares estrellas de YouTube, en el que se queja de la "desmonetización" y de los cambios en la manera de obtener ingresos en la plataforma.
El video original de Neistat fue publicado en septiembre de 2016 y cuenta con cerca de cuatro millones de vistas.
YouTube comenzó a sacar los avisos publicitarios de algunos videos a principios de 2017 luego de que algunas marcas reconocidas suspendieran sus campañas por aparecer en videos con contenido extremista.
Desde entonces, la empresa endureció sus normas y comenzó a filtrar contenidos sobre drogas, discursos de odio, desnudez, lenguaje agresivo y sugerencias sexuales.
Según el algoritmo, los videos que hablan de temas como el abuso sexual o el suicidio ahora no se consideran "aptos para todo público". Eso hace que muchos de esos contenidos, según YouTube, no sean "amigables para la publicidad".
Al bloquear los avisos publicitarios en esos videos, los creadores de contenido no reciben ingresos.
La compañía también introdujo un sistema para que los propios usuarios ?los "héroes"? moderen ellos mismos el contenido en YouTube y los comentarios de los videos, delatando el "contenido inadecuado".
9 tipos de contenido que YouTube considera "inadecuado" para anunciantes:
- Acontecimientos controvertidos y asuntos delicados: conflictos bélicos o políticos, terrorismo o extremismo, muertes y tragedias, y abusos sexuales (aunque no aparezcan imágenes explícitas).
- Drogas y productos o sustancias peligrosas: videos que muestren o fomenten la venta, el uso o el consumo de drogas ilegales, sustancias o drogas reguladas o productos peligrosos.
- Actividades dañinas o peligrosas: que puedan causar daños físicos, emocionales o psicológicos graves.
- Contenido de incitación al odio: videos que fomenten la discriminación o el menosprecio, o humillen a una persona o un grupo por su raza u origen étnico, nacionalidad, religión, discapacidad, edad, condición de veterano o reservista, orientación sexual, identidad sexual. El contenido satírico o cómico puede quedar exento.
- Lenguaje inapropiado: uso de lenguaje grosero u ordinario de forma frecuente.
- Uso inadecuado de personajes de entretenimiento infantil: (tanto animados como de acción real) comportándose de manera violenta, sexual, malintencionada o inadecuada, incluso si el propósito es cómico o satírico.
- Contenido incendiario y degradante: los videos con contenido innecesariamente subversivo, incendiario o degradante no son aptos para mostrar ningún tipo de anuncio.
- Contenido con connotaciones sexuales: los videos que exhiben un contenido de marcado carácter sexual, como aquellos en los que el foco de atención sea la desnudez, las simulaciones sexuales o la exposición de partes del cuerpo con ánimo de provocación, además de contenido en el que aparezcan juguetes sexuales o conversaciones explícitas sobre sexo.
- Violencia: videos en los que el foco de atención sea la sangre, la violencia o las lesiones sin ningún contexto adicional.
Fuente: YouTube Creators
"La gente está... poniendo la misma cantidad de trabajo, de energía y de gastos en sus contenidos pero ahora les pagan solo una fracción de lo que ganaban antes", se quejaba Neistat.
Es prácticamente imposible revisar manualmente cada uno de los contenidos publicados en YouTube, que cuenta con unos mil millones de usuarios en 88 países, de acuerdo con datos de la empresa de 2017.
La empresa dice, sin embargo, que si sus usuarios consideran que los videos no fueron filtrados de manera justa, pueden tomar medidas: "Si el creador cree que sus contenidos deberían monetizarse, le proveemos de un sencillo formulario en el que puede apelar la decisión".
Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.