Las empresas de tecnología están ignorando la crisis de salud mental provocada por la pandemia.
Sin duda, hay una crisis de salud mental por la pandemia. Hay muchas cosas que los científicos no comprenden sobre los efectos a largo plazo del COVID-19 en la sociedad. Pero un año después, al menos una cosa parece clara: la pandemia ha sido terrible para nuestra salud mental colectiva, y un número sorprendente de plataformas tecnológicas parece haberle dado muy poca importancia al tema.
Nature informó que la cantidad de adultos en el Reino Unido que mostraban síntomas de depresión casi se había duplicado de marzo a junio del año pasado, al 19 por ciento. En los Estados Unidos, el 11 por ciento de los adultos informó sentirse deprimido entre enero y junio de 2019; para diciembre de 2020, ese número casi se había cuadriplicado, al 42 por ciento.
El aislamiento prolongado creado por los encierros se ha relacionado con interrupciones del sueño, aumento del uso de drogas y alcohol y aumento de peso, entre otros síntomas. Los datos preliminares sobre suicidios en 2020 son mixtos, pero la cantidad de sobredosis de drogas se disparó y los expertos creen que muchas probablemente fueron intencionales. Incluso antes de la pandemia, Glenn Kessler informa en The Washington Post, "las tasas de suicidio habían aumentado en los Estados Unidos cada año desde 1999, con un aumento del 35 por ciento en dos décadas".
Los problemas relacionados con el suicidio y las autolesiones afectan a casi todas las plataformas digitales de alguna manera. Internet es cada vez más un lugar donde las personas debaten y buscan apoyo para problemas de salud mental. Pero según una nueva investigación del Observatorio de Internet de Stanford, en muchos casos, las plataformas no tienen políticas relacionadas con la discusión de las autolesiones o el suicidio.
En "Políticas de autolesiones y plataformas de Internet", los autores encuestaron 39 plataformas en línea para comprender su enfoque de estos problemas. Analizaron motores de búsqueda, redes sociales, plataformas orientadas al rendimiento como TikTok, plataformas de juegos, aplicaciones de citas y aplicaciones de mensajería. Algunas plataformas han desarrollado políticas sólidas para cubrir los matices de estos problemas. Sin embargo, muchos los han ignorado por completo.
“Existe una gran desigualdad en la amplitud de las políticas públicas”, escriben Shelby Perkins, Elena Cryst y Shelby Grossman. “Por ejemplo, las políticas de Facebook no solo abordan el suicidio, sino también la eutanasia, las notas de suicidio y los intentos de suicidio por transmisión en vivo. Por el contrario, Instagram y Reddit no tienen políticas relacionadas con el suicidio en sus documentos de políticas primarias ".
Plataformas y sus políticas
Entre las plataformas encuestadas, se encontró que Facebook tiene las políticas más completas. Pero los investigadores culparon a la compañía por políticas poco claras en su subsidiaria de Instagram; técnicamente, todas las políticas de la empresa matriz se aplican a ambas plataformas, pero Instagram mantiene un conjunto separado de políticas que no mencionan explícitamente la publicación sobre el suicidio, lo que crea cierta confusión.
Aún así, Facebook está muy por delante de algunos de sus pares. Se descubrió que Reddit, Parler y Gab no tenían políticas públicas relacionadas con publicaciones sobre autolesiones, trastornos alimentarios o suicidio. Eso no significa necesariamente que las empresas no tengan política alguna. Pero si no se publican públicamente, es posible que nunca lo sepamos con certeza.
En contraste, los investigadores dijeron que lo que ellos llaman "plataformas de creadores" - YouTube, TikTok y Twitch - han desarrollado políticas inteligentes que van más allá de las simples promesas de eliminar contenido perturbador. Las plataformas ofrecen un apoyo significativo en sus políticas tanto para las personas que se están recuperando de problemas de salud mental como para aquellos que pueden estar considerando autolesionarse, dijeron los autores.
"Tanto YouTube como TikTok son explícitos al permitir que los creadores compartan sus historias sobre autolesiones para crear conciencia y encontrar el apoyo de la comunidad", escribieron. "Nos impresionó que las pautas de la comunidad de YouTube sobre suicidio y autolesiones brinden recursos, incluidas líneas directas y sitios web, para quienes tienen pensamientos suicidas o autolesiones, para 27 países".
Sin embargo, fuera de las plataformas más grandes, todo es un desastre. Los investigadores no pudieron encontrar políticas públicas de suicidio o autolesión para NextDoor o Clubhouse. ¿Aplicaciones de citas? Grindr y Tinder tienen políticas sobre autolesiones; Scruff y Hinge no lo hacen. Las aplicaciones de mensajería tampoco tienden a tener tales políticas públicas; iMessage, Signal y WhatsApp no las tienen. (El hecho de que todos ellos usen alguna forma de cifrado probablemente tenga mucho que ver con eso).
En una entrevista, los investigadores comentaron que hay al menos tres grandes razones. Una es esencialmente una cuestión de justicia: si las personas van a ser castigadas por la forma en que hablan de las autolesiones en línea, deben saberlo de antemano. La segunda es que las políticas ofrecen a las plataformas la oportunidad de intervenir cuando sus usuarios están considerando hacerse daño. (Muchos ofrecen a los usuarios enlaces a recursos que pueden ayudarlos en tiempos de crisis). Y la tercera es que no podemos desarrollar políticas más efectivas para abordar los problemas de salud mental en línea si no sabemos cuáles son las políticas.
Moderar este tipo de publicaciones puede ser bastante complicado, dijeron los investigadores. A menudo, existe una línea muy fina entre las publicaciones que tratan sobre las autolesiones y las que parecen fomentarlas.
"El mismo contenido que podría mostrar a alguien recuperándose de un trastorno alimentario es algo que también puede desencadenar a otras personas", comenta Grossman. "Ese mismo contenido podría afectar a los usuarios de dos formas diferentes".
Pero no puede moderarse si ni siquiera tienen una política, de acuerdo con la investigación, una gran cantidad de empresas no las tienen.
YouTube está cambiando la forma en que mide el daño en la plataforma (y lo divulga); y Twitch desarrolló una política para controlar el comportamiento de los creadores en otras plataformas.
Llevamos más de una década en la era de las plataformas, pero todavía quedan muchas preguntas importantes por resolver. E incluso en los temas más serios, cómo abordar el contenido relacionado con las autolesiones, algunas plataformas ni siquiera han entrado en la discusión.
Los investigadores de Stanford creen que son las primeras personas que incluso intentan catalogar las políticas de autolesión entre las principales plataformas y hacerlas públicas. Sin duda, existen muchas otras áreas en las que un inventario similar serviría al bien público. Las empresas privadas siguen ocultando demasiado, incluso y especialmente cuando están directamente implicadas en cuestiones de interés público.
En el futuro, se espera que más empresas colaboren, aprendiendo unas de otras y adoptando políticas que tengan sentido para sus propias plataformas. Gracias a los investigadores de Stanford, al menos en un tema, ahora se pueden encontrar todas las políticas existentes en un solo lugar.
Fuente: Platformer.