Aquí les traemos un análisis profundo sobre cómo las empresas de redes sociales, particularmente del grupo de Facebook (ahora Meta), están utilizando los datos de los adolescentes y esto no es una declaración a la ligera, estamos basándonos en las revelaciones de Sarah Wynn-Williams, exdirectora de políticas de Facebook, y otras investigaciones recientes. Prepárense para entender la compleja realidad detrás de cada «me gusta» y también de cada foto borrada.
Y es que el concepto de «si algo es gratis, tú eres el producto» se ha vuelto innegable en el mundo de las aplicaciones y redes sociales, dando origen a lo que se conoce como «capitalismo de vigilancia«. Este modelo surgió cuando ingenieros de software se dieron cuenta de que los anunciantes estaban dispuestos a pagar grandes sumas por nuestros datos personales, que se acumulan a medida que navegamos por la web. Estos datos ayudan a las corporaciones publicitarias a «entender a su audiencia» y «entregar contenido altamente relevante«.
El Auge de la Publicidad Hiper-Personalizada y la Explotación de Vulnerabilidades
Lo que tienen un tiempo usado internet tendrán fresco en sus memorias como era antes, simples popups con anuncios random, a lo que tenemos ahora, anuncios hiper-personalizados, diseñados para grupos de usuarios muy específicos, un sistema llamado «segmentación de redes sociales». Esta segmentación es posible mediante el análisis de cuatro métricas clave: información personal (como género y edad), intereses, comportamiento «fuera de la aplicación» (sitios web visitados) y «psicografía» (tendencias generales derivadas del comportamiento a lo largo del tiempo, como valores sociales y hábitos de estilo de vida).
La exdirectora de políticas de Facebook, Sarah Wynn-Williams, en su libro «Careless People«, ha expuesto la presunta depravación de la máquina de segmentación de la gigante de las redes sociales. Según Wynn-Williams, ya en 2017, Facebook estaba explorando formas de expandir sus capacidades de segmentación de anuncios para jóvenes de trece a diecisiete años en Facebook e Instagram. Este es un grupo «decididamente vulnerable, a menudo en medio de crisis de imagen y sociales adolescentes».
- El Rastreo de Selfies Borradas para Anuncios de Belleza: Uno de los hallazgos más impactantes es que la compañía presuntamente rastreaba cuándo las adolescentes eliminaban sus selfies, «para poder mostrarles un anuncio de belleza en ese mismo momento». La idea era que si una joven borraba una foto porque no se sentía bien con su apariencia, la plataforma le mostraría instantáneamente un anuncio para productos de belleza, «como un rellenador de labios o un té para bajar de peso».
- La Monetización de los Estados Emocionales: Aunque los algoritmos de Facebook son «notoriamente opacos», en 2017 The Australian alegó que la compañía había elaborado una presentación para anunciantes jactándose de que podía explotar «momentos de vulnerabilidad psicológica» en sus usuarios. Se reportó que se dirigían a términos como «inútil», «inseguro», «estresado», «derrotado», «ansioso», «estúpido» y «como un fracaso». Según Wynn-Williams, «monetizar el sentido de inutilidad de las jóvenes se siente como un paso concreto hacia el futuro distópico que los críticos de Facebook habían advertido durante mucho tiempo».
Facebook (Meta) ha negado estas acusaciones. Un portavoz de Meta señaló una publicación de blog de la compañía de 2017 que afirmaba que «Facebook no ofrece herramientas para segmentar personas en función de su estado emocional» y que el análisis realizado por un investigador australiano «nunca se utilizó para segmentar anuncios». Sin embargo, Wynn-Williams afirma que un subdirector de privacidad de la empresa confirmó que «no solo Facebook ofrece este tipo de segmentación conductual personalizada», sino que «hay un equipo de producto trabajando en una herramienta que permitiría a los anunciantes hacer esto ellos mismos, sin la ayuda de Facebook». Además, los ejecutivos de publicidad de la empresa supuestamente le dijeron a Wynn-Williams que estaban «orgullosos» de este tipo de negocio, ya que «esto es lo que pone dinero en todos nuestros bolsillos».

El Lado Oscuro: Instagram y la Proliferación del Contenido de Autolesiones
Más allá de la publicidad dirigida a la inseguridad, hay preocupaciones serias sobre cómo las plataformas como Instagram manejan el contenido dañino. Un estudio reciente realizado por investigadores daneses encontró que Meta está «ayudando activamente a que el contenido de autolesiones prospere en Instagram».
- Falla en la Moderación: La organización Digitalt Ansvar creó una red privada de autolesiones en Instagram, con perfiles falsos, incluyendo uno de 13 años, y compartió 85 piezas de contenido relacionado con autolesiones de severidad creciente. A pesar de las afirmaciones de Meta de que su inteligencia artificial elimina el 99% del contenido dañino antes de ser reportado, el estudio de un mes de duración encontró que ni una sola imagen fue eliminada.
- Algoritmo que Fomenta Redes de Autolesiones: El estudio sugirió que, en lugar de cerrar la red, el algoritmo de Instagram «ayudó activamente a su expansión». Por ejemplo, se observó que los perfiles de 13 años se hicieron amigos de todos los miembros del grupo de autolesiones después de ser conectados con uno de ellos, lo que «sugiere que el algoritmo de Instagram contribuye activamente a la formación y propagación de redes de autolesiones».
- Consecuencias de Vida o Muerte: La psicóloga Lotte Rubæk, quien dejó un grupo de expertos global de Meta, acusó a la compañía de «hacer la vista gorda» ante el contenido dañino, señalando que la falta de moderación puede tener «consecuencias graves» y está «altamente asociada con el suicidio». Para Meta, la proliferación de contenido de autolesiones es simplemente un «daño colateral» en su camino hacia la obtención de ganancias.
Implicaciones Futuras, Salud Mental y Privacidad del Usuario
La evolución de estas métricas es crucial para entender la naturaleza «omnívora» del capitalismo de vigilancia. La monetización de la desesperación y la inseguridad es la «epitome de todo lo que los críticos han estado diciendo sobre el capitalismo de vigilancia desde el principio». El filósofo Antonio Gramsci escribió: «El viejo mundo está muriendo y el nuevo mundo lucha por nacer. Ahora es el tiempo de los monstruos».
La capacidad de las empresas para analizar y explotar las vulnerabilidades emocionales y los comportamientos de los adolescentes plantea serias preocupaciones para la salud mental y la privacidad. La idea de que «si te sientes feo, triste o ansioso, hay un 99.9% de posibilidades de que Meta y sus productos ya lo sepan, y tengan justo el producto para arreglarte», subraya un futuro donde nuestras inseguridades son monetizadas y nuestros sentimientos nunca son privados.
Consejos para Padres: ¿Qué Acciones Tomar?
Ante esta realidad, es fundamental que los padres estén informados y tomen medidas proactivas para proteger a sus hijos adolescentes. Aqui algunas acciones clave:
- Fomentar la Comunicación Abierta: Hable con sus hijos sobre sus sentimientos y experiencias en línea. La segmentación de anuncios busca momentos de vulnerabilidad emocional, por lo que una comunicación fuerte puede ayudar a los adolescentes a procesar y no actuar impulsivamente ante anuncios diseñados para explotar sus inseguridades.
- Monitorear la Actividad en Línea (con Respeto): Esté atento al tipo de contenido que sus hijos consumen y con quién interactúan, especialmente si observa cambios en su comportamiento o estado de ánimo. El estudio sobre autolesiones mostró cómo las redes pueden proliferar sin ser detectadas por la moderación de la plataforma.
- Configuración de Privacidad y Contenido Sensible: (Esta es una acción recomendada basada en el contexto de la privacidad y el control de contenido) Ayude a sus hijos a ajustar las configuraciones de privacidad en sus cuentas de redes sociales para limitar la recopilación de datos y el tipo de anuncios que ven. Aunque Meta afirma tener «Instagram Teen Accounts» con configuraciones más estrictas para adolescentes, la efectividad de estas herramientas es cuestionable según los estudios.
- Enseñar Alfabetización Digital Crítica: Explique cómo funcionan los algoritmos de publicidad y por qué ciertas empresas quieren sus datos. Ayude a sus hijos a entender que los anuncios están diseñados para influir en ellos y que sus inseguridades pueden ser un objetivo.
- Reportar Contenido Inapropiado o Dañino: Si se encuentran con contenido de autolesiones o cualquier otro material peligroso, repórtenlo a la plataforma. Aunque el estudio danés encontró que la moderación de Meta es «extremadamente inadecuada», reportar sigue siendo un paso importante y puede contribuir a la mejora de los sistemas de detección a largo plazo.
- Buscar Ayuda Profesional: Si sospecha que su hijo está luchando con problemas de salud mental o exposición a contenido dañino, no dude en buscar apoyo de psicólogos o profesionales de la salud. La falta de moderación en estas plataformas puede tener «consecuencias graves» y está «altamente asociada con el suicidio».
La era del capitalismo de vigilancia ha traído consigo muchas realidades preocupantes. Es crucial que como sociedad, y especialmente como padres, estemos conscientes de estas prácticas y tomemos medidas para proteger la salud mental y la privacidad de las generaciones más jóvenes.
