Tecnomania TV Noticias

Facebook Live: cuando la muerte se retransmite en directo

Era un aparente domingo cualquiera. Las 11.09 horas para se exactos. La fecha, un 16 de abril. Steve Stephens, de 37 años, aparece, por sorpresa, en un video colgado en su perfil de Facebook. Emite en directo. Asegura haber matado a trece personas. Conducía, como si tal cosa, pero tenía un propósito en mente: matar a alguien. Y lo consiguió, para vergüenza de la raza humana. Pocos minutos después acaba con la vida de Robert Godwin, de 74 años. La víctima andaba tranquilamente por allí y pagó la frustración de una persona de haber discutido horas antes con su novia. Le quitó la vida y se convirtió, en ese instante, en un criminal buscado por la policía. Tras varias denuncias de usuarios, la multinacional americana cortó la emisión dos horas después. Facebook asegura, sin embargo, que bloqueó la cuenta a los 23 minutos después de haber sido alertado del contenido del video. Pero el daño ya estaba hecho. Miles de personas lo habían visto con sus ojos.

Tras una persecución y acosado por los cuerpos de policía de Cleveland (Ohio, EE.UU.), Stephens decidió, entonces, quitarse la vida y poner fin a esta tragedia retransmitida en directo. Fueron tres videos de casi cuatro minutos de duración en su conjunto en donde, como si se tratase de una película de Quentin Tarantino, relataba paso a paso los acontecimientos (primero, la planificación; segundo, el acto; tercero, la confesión). Un relato macabro. Un episodio difícil de creer y que ha generado un debate social sobre las repercusiones y la actitud de las empresas de internet para frenar este tipo de casos en los que se muestran en vivo imágenes de crímenes o de suicidios.

El ser humano del siglo XXI vive totalmente inmunizado al dolor. Y a la angustia. Ve con sus propios ojos el miedo y la sangre cada día en la televisión. Uno ya no se sorprende de nada. Hasta los niños, incluso, tienen a su alcance imágenes trágicas que se pegan a sus retinas como el sudor a la piel. El morbo está a la orden del día. Todos somos conscientes. Si un informador presenta una imagen pero, precavido, dice «estas imágenes pueden herir la sensibilidad» lo más normal es que active una palanca en el cerebro y observemos de reojillo lo que va a suceder. Por eso puede haber personas que incluso ante la presencia de un cadáver lleguen a grabar videos y a hacer comentarios que, tal vez, en otras épocas llegarían a espantar a cualquiera. Es frívolo, pero las redes sociales han magnificado todas esas situaciones. Se han producido incluso casos de suicidio en directo, cuyos videos han permanecido disponible varias horas. Algo terrible.

«Tal vez nos falta cultura en el uso de las redes sociales o entender cómo funcionan, porque hay cosas de esas redes sociales que al final se acaban utilizando para cosas diferentes a la idea original»
Esteban Mucientes, experto en redes sociales

Si bien es cierto que la muerte siempre está presente, las nuevas tecnologías han sufrido en sus carnes cómo servicios en teoría útiles y prácticos como las retransmisiones en directo (Periscope, Twitter, Facebook Live, Twitch…) se han convertido en un arma de doble filo. El «troll», aquellos usuarios que bajo el anonimato han encontrado un paraíso para el insulto, o el criminal de turno lo que quieren en realidad es atención. Propaganda. Y cuanta más, mejor. Por ello hay quienes no dudan ni un segundo que encontrarán cobijo en sus actos incívicos, vandálicos o de dudosa actividad. Son casos aislados, es cierto, pero demuestran que las nuevas tecnologías, en muchos casos, se han utilizado para otros fines que no fueron originalmente planificados. Así ha sido a lo largo de la Historia.

Son muchas las cuestiones alrededor. ¿Qué responsabilidades tiene una plataforma «online» ante un crimen de uno de sus usuarios? ¿Hasta qué punto se les puede acusar? ¿Qué pueden hacer? Es más, ¿puede la tecnología anticiparse (y evitar incluso) ante una tragedia? Las políticas de uso registradas en Facebook o Twitter, empresas que disponen de servicios de retransmisión de video en «streaming», recogen que está literalmente prohibido hacer apología de la violencia o incitar a ella.

Para evitarlo, un sistema informático basado en inteligencia artificial se encarga de velar por el cumplimiento de estas normativas. Pero en la mayoría de los casos es la comunidad la encargada de autorregular (o censurar) estos contenidos gracias al uso de una serie de herramientas a su alcance para denunciar y reportar el contenido inapropiado, tal y como sucedió en otro caso similar cuando dos personas de 14 y 15 años violaron a una menor mientras treinta personas lo presenciaban, impasibles, en directo a través de Facebook Live.

 

A su juicio, es imposible supervisar de manera automática y perfecta todo contenido. Y pone un ejemplo: basta ver los falsos positivos que algunas herramientas provocaron en relación a fotos de desnudos. «El problema es que, al tratarse de herramientas de emisiones en vivo, resulta casi imposible actuar durante la retransmisión sobre todo si se trata de casos en los que el acto se produce rápidamente y antes de que algún moderador pueda llegar a actuar», añade.

«Más que contribuir, están haciendo que resulten más visibles al permitir tanto la posibilidad de acceso sencillo a una emisión en vivo con un público potencial enorme. Quien quiere emitir en vivo puede hacerlo, con dispositivos de bajo coste, y con una sencillez que hasta hace poco era impensable». Por esta razón, este experto señala que la mejor opción está en «facilitar las denuncias rápidas para determinados sucesos», de forma que «la moderación cuente con un equipo que actúe de manera preferente en emisiones».

Por su parte, Samuel Parra, abogado experto en privacidad y derecho en red, manifiesta en conversación telefónica que desde el punto de vista legal, al menos en el entorno español, las redes sociales no tienen una obligación de controlar en tiempo real los videos o imágenes que se están subiendo. «Sería inviable por el alto volumen que sacan. La red social sí puede ser responsable de alojar un contenido de tercero en caso de vulnerar un derecho de un tercero, por ejemplo, si cuelgo una imagen de contenido injurioso o que puede vulnerar la intimidad de otra persona», matiza.

«No podemos pretender que las plataformas que manejan miles de millones de datos por minuto tengan cientos o miles de personas las 24 horas para revisar lo que publique la gente»

Porque, en líneas generales, esta serie de actividades difundidas en redes sociales se magnifican, pero se deja en manos de la comunidad y los moderadores encargados de visualizar el contenido reportado. «Hay sistemas y algoritmos que sí pueden detectar una banda sonora protegida por derechos de autor, retirando el contenido automáticamente. Pero si Facebook recibe una petición tan evidente como una fotografía denunciada y no hace nada va a ser responsable como si la hubiera publicado él [por la red social]», asegura.

La solución que propone este experto es que las compañías de internet sean «diligentes» porque no tiene sentido que se denuncie un contenido y que éste desaparezca a los dos meses. «No podemos pretender que las plataformas que manejan miles de millones de datos por minuto tengan cientos o miles de personas las 24 horas para revisar lo que publique la gente para despublicarlo al minuto. Mientras habiliten herramientas para que se agilice la revisión y actúen en consecuencia con eso es suficiente. Más allá no podemos exigirle».

 

 

 

 

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: