La red social Instagram anunció que comenzará a alertar a los padres cuando sus hijos adolescentes realicen búsquedas repetidas de términos claramente asociados con suicidio o autolesiones. La notificación se enviará únicamente a aquellos padres que estén inscritos en el programa de supervisión parental de la plataforma.
La decisión fue confirmada por Meta, empresa matriz de Instagram, en un contexto marcado por crecientes cuestionamientos legales y sociales sobre el impacto de las redes sociales en la salud mental de los menores.
¿Cómo funcionarán las alertas?
Según explicó la compañía, Instagram ya bloquea este tipo de contenido en los resultados de búsqueda de cuentas adolescentes y redirige a los usuarios hacia líneas de ayuda y recursos de apoyo. Con la nueva medida, si un menor realiza búsquedas reiteradas relacionadas con suicidio o autolesiones, los padres inscritos en el sistema de supervisión recibirán una notificación a través de:
- Correo electrónico
- Mensaje de texto
- WhatsApp
- Notificación directa en su cuenta de Instagram
Meta indicó que el objetivo es “empoderar a los padres para que intervengan si las búsquedas de su hijo sugieren que podría necesitar apoyo”, evitando al mismo tiempo notificaciones excesivas que puedan restarles efectividad.
La medida llega en medio de dos juicios clave
El anuncio se produce mientras Meta enfrenta dos procesos judiciales en Estados Unidos por presuntos daños a menores:
- En Los Ángeles, un juicio analiza si las plataformas de la compañía fueron diseñadas deliberadamente para generar adicción y perjudicar a los adolescentes.
- En Nuevo México, otro proceso busca determinar si Meta no protegió adecuadamente a los menores frente a la explotación sexual en sus plataformas.
Miles de familias, distritos escolares y entidades gubernamentales han presentado demandas contra Meta y otras compañías de redes sociales. Los demandantes sostienen que estas plataformas fueron diseñadas para ser adictivas y que no protegen de manera suficiente a los jóvenes frente a contenidos que pueden contribuir a depresión, trastornos alimentarios o suicidio.
El director ejecutivo de la empresa, Mark Zuckerberg, ha rechazado que exista evidencia científica concluyente que demuestre que las redes sociales causen daños directos a la salud mental. Durante su declaración en el juicio de Los Ángeles, sostuvo que el cuerpo actual de investigación científica no ha probado de manera definitiva esa relación causal.
También habrá alertas sobre interacciones con inteligencia artificial
Meta informó además que está desarrollando notificaciones similares relacionadas con el uso de herramientas de inteligencia artificial dentro de la plataforma.
Estas alertas avisarán a los padres si un adolescente intenta entablar ciertos tipos de conversaciones vinculadas con suicidio o autolesiones con el sistema de IA de la compañía. “Este es un trabajo importante y compartiremos más detalles en los próximos meses”, señaló la empresa en una publicación oficial.
La decisión de Instagram se suma a un debate global sobre la responsabilidad de las plataformas digitales en la protección de la salud mental infantil y adolescente. Mientras continúan los procesos judiciales, la implementación de nuevas herramientas de supervisión parental podría convertirse en un punto clave en la defensa de la compañía frente a las acusaciones.
No obstante, expertos en salud mental advierten que las herramientas tecnológicas, aunque útiles, no reemplazan la comunicación directa entre padres e hijos ni la intervención profesional cuando es necesaria.
Fuente original aquí









