La inteligencia artificial puede ayudar a prevenir suicidios
Instagram, Facebook y Google tienen herramientas para ayudar con la salud mental de sus usuarios
Madrid
La conciencia sobre la importancia de la salud mental va aumentando muy despacio. Algunos debates ya se han abierto y se están intentando eliminar algunos tabúes. Uno de ellos es el del suicidio: las redes sociales ya son conscientes de que los usuarios muestran algunos indicios en sus perfiles y se han dado cuenta de la necesidad de utilizar las herramientas que están en sus manos para prevenir las autolesiones. Sobre todo teniendo en cuenta la viralidad de juegos peligrosísimos como el de La ballena azul. Para ayudar a los usuarios, las compañías están utilizando distintas herramientas de inteligencia artificial.
En marzo de este año, Facebook empezó a usar sus sistemas de inteligencia artificial para detectar a los usuarios que podrían estar considerando la opción del suicidio. Al leer los mensajes y comentarios, la IA de la red alerta a su equipo humano si encuentra indicios de posibles problemas en alguna publicación. En el caso de que sea cierto y alguien esté manifestando sus intenciones de autolesionarse, el equipo sugerirá formas en las que el usuario puede buscar ayuda y tratar con pensamientos o sentimientos suicidas, como teléfonos de emergencias, asociaciones o ayuda profesional.
Para realizar esta labor, la inteligencia artificial utiliza algoritmos entrenados para reconocer patrones en los textos que sugieren que una persona está planteándose hacerse daño. "Esta aplicación de la inteligencia artificial hará que el botón para reportar un post sobre suicidio o autolesión esté más visible en los perfiles para usuarios con actitudes preocupantes", explicó Facebook en un comunicado publicado a principios del año pasado. El botón al que hace referencia es una opción que aparece en el menú desplegable de las publicaciones y que te permite reportar el contenido de un amigo si crees que va a poner en peligro su vida.
Esta misma herramienta es la que utiliza Instagram desde octubre de 2016. El botón sirve para que cualquiera pueda alertar a la red social sobre las publicaciones y supone un apoyo para el sistema de inteligencia artificial. También han recopilado un conjunto de hashtags que han clasificado como a tener en cuenta. Es el algoritmo de inteligencia artificial quien los identifica. Cuando un usuario los utiliza, la herramienta lo redirecciona al sistema de soporte de Instagram. Si alguien anónimamente reporta una publicación, a la persona le aparecerá el mensaje: "Alguien vio una de tus publicaciones y piensa que podrías estar pasando por un momento difícil. Si necesitas apoyo, nos gustaría ayudarte". Para diseñar todo este sistema, Facebook —que compró Instagram en 2012— ha estado trabajando estrechamente con expertos en prevención de suicidios.
Algunos de estos expertos alertan de que muchas personas han aceptado la idea de que cuando alguien quiere suicidarse no avisa y, que si lo hace, es solo para llamar la atención. Los psicólogos aseguran que esta idea es equivocada y que "debemos tomarnos muy en serio y no restar credibilidad a los indicios que vemos de las personas de nuestro entorno, también en las redes sociales". También recalcan la idea de que evitar el tema o no prestarle atención no hace que desaparezca.
El rey de las redes sociales también está agregando herramientas de prevención a su plataforma de streaming de vídeo en directo. Los espectadores que están viendo el vídeo pueden reportar este comportamiento de la misma forma que una publicación. Esta medida llega como consecuencia de todas las veces que algún usuario se ha suicidado mientras emitía un vídeo en directo. Los expertos en IA señalan que utilizar la inteligencia artificial para detectar información en tiempo real es uno de los grandes retos a los que se enfrentan en estos momentos.
Google también está trabajando por incluir el machine learningen la detección prematura de estas publicaciones. A finales de febrero, lanzó su sistema Jigsaw pensado para utilizar la tecnología con el objetivo de proteger a los internautas de los ataques contra la libertad de expresión o el extremismo, pero también del acoso. Con el proyecto Perspective, Google puede identificar mensajes que pretenden acosar a algún usuario. El aumento del ciberacoso es uno de los factores que pueden contribuir a algunos casos de suicidio. El objetivo de Perspective es identifica el impacto de los comentarios en una conversación y distinguir si un comentario podría percibirse como "tóxico" en una conversación.
Aunque las redes están tomando algunas medidas para contribuir a la salud mental de sus usuarios, algunos estudios apuntan a que lo mejor para conservarla es reducir su uso. Un estudio desarrollado por The Happiness Research Institute mostró que los usuarios que habían dejado de utilizar Facebook durante una semana admitieron sentirse más felices y menos tristes y solos. Además de los sentimientos positivos, notaron un incremento en su actividad social cara a cara y menos dificultad para concentrarse. También tuvieron la sensación de que a lo largo de esos siete días habían desperdiciado menos su tiempo.
Estas conclusiones coinciden con las declaraciones de muchos expertos que recuerdan que los usuarios de las redes sociales solo muestran en sus perfiles la parte de su vida que les interesa que los demás vean: las buenas noticias —el 61% de las personas publican solo las cosas buenas que les pasan—, las fotografías retocadas, el encuadre pensadísimo que parece casual... Proyectan una vida irreal que hace que la mitad de los usuarios envidien las experiencias que otros comparten en sus perfiles y que un tercio envidie lo felices que parecen sus contactos de Facebook. Los expertos de The Happiness Research Institute aseguran que las redes sociales "son como un canal en el que solo salen buenas noticias, un flujo constante de vidas editadas que distorsionan nuestra imagen de la realidad". Así, el bienestar de los usuarios está condicionado por lo que piensan los demás y el número de likes que consiguen al final del día.
No hay comentarios.:
Publicar un comentario