La discusión sobre los efectos de las redes sociales en la salud mental dio un paso clave esta semana en los tribunales de Estados Unidos, pero con consecuencias globales.
Dos sentencias recientes de la Justicia en Estados Unidos pusieron contra las cuerdas a gigantes como Meta y Google. Los multaron por generar conductas adictivas en jóvenes y ponerlos en situaciones de vulnerabilidad. ¿Habrá cambios reales o solo será un castigo económico?
La discusión sobre los efectos de las redes sociales en la salud mental dio un paso clave esta semana en los tribunales de Estados Unidos, pero con consecuencias globales.
Dos fallos judiciales contra Meta -empresa matriz de Facebook e Instagram- y uno contra YouTube reavivaron el debate sobre el rol de las plataformas en la generación de comportamientos adictivos, especialmente entre adolescentes.
Los casos, impulsados por familias, sostienen que las compañías diseñaron deliberadamente sus productos para maximizar el tiempo de uso y utilizaron mecanismos psicológicos similares a los del juego.
La percepción de que las grandes corporaciones tecnológicas son inmunes ante la ley ha sufrido un golpe devastador.
En menos de 24 horas se emitieron veredictos que podrían redefinir la responsabilidad de grandes tecnológicas respecto del bienestar emocional de sus usuarios más jóvenes.
El primer revés ocurrió en Nuevo México, donde un jurado civil ordenó a Meta pagar 375 millones de dólares tras determinar que la empresa engañó a los usuarios sobre la seguridad de Instagram y Facebook, y eso facilitó la explotación sexual de menores.
Una investigación encubierta reveló que cuentas de supuestos menores de 14 años fueron contactadas por depredadores en cuestión de minutos.
Raúl Torrez, fiscal general de Nuevo México, calificó el fallo como “una victoria histórica para cada niño y familia que ha pagado las consecuencias de la decisión de Meta de anteponer las ganancias a la seguridad infantil”.
Simultáneamente, en Los Ángeles, otro jurado halló a Meta y Alphabet culpables de negligencia en el diseño de sus servicios. El caso fue impulsado por una joven de 20 años que desarrolló adicción, ansiedad y depresión tras usar Instagram y YouTube desde antes de los 10 años.
Esta sentencia es clave porque pone el foco en las decisiones deliberadas de diseño y no solo en el contenido.
Nikolas Guggenberger, del Centro de Derecho de la Universidad de Houston, destacó la relevancia de este cambio legal: “Por primera vez, los tribunales han responsabilizado a las plataformas por la forma en que el diseño de sus productos puede perjudicar a los usuarios”.
Las denuncias contra las empresas tecnológicas exponen que el problema no es solo el contenido sino el diseño donde se despliega.
Funciones como el scroll infinito, la reproducción automática de contenido, las notificaciones constantes y los sistemas de recomendación personalizados son tan peligrosos y adictivos como las publicaciones que generan desinformación al apelar a nuestros gustos, sesgos y preferencias.
Los demandantes sostienen que las redes están pensadas para estimular la liberación de dopamina y generar ciclos de consumo difíciles de interrumpir.
Las empresas se defienden argumentando que sus plataformas son seguras si se usan correctamente y para resguardarse agregaron controles parentales y herramientas de bienestar digital, aunque no tanto para proteger al usuario sino para hacerlo responsable final cuando alguien recae en el uso excesivo.
Niños y adolescentes son el foco de atención y cuestionan si las compañías eran conscientes de los efectos negativos que les generaban, como baja autoestima, ansiedad o malos hábitos de sueño.
El castigo superficial es imponer multas millonarias, pero la verdadera solución podría ser forzar cambios obligatorios en el diseño de las plataformas, crear nuevas regulaciones sobre algoritmos y habilitar un mayor control sobre contenidos dirigidos a menores.
Como era de esperarse, Meta y Alphabet han anunciado que apelarán los fallos.
Las empresas argumentan que no existe evidencia científica concluyente que vincule directamente el uso de redes con trastornos mentales y sostienen que han invertido recursos significativos en herramientas de seguridad.
Un portavoz de Meta expresó tras el veredicto en Nuevo México: “Discrepamos respetuosamente con el veredicto. Trabajamos de manera constante para mantener a las personas seguras en nuestras plataformas y somos conscientes de los desafíos que implica identificar y eliminar a actores malintencionados”.
A pesar de estas justificaciones, el panorama está cambiando. Australia prohibió el uso de redes a menores de 16 años, Brasil ha vetado el scroll infinito y el autoplay en contenido para chicos y la Unión Europea exige seguridad desde la fase de diseño, lo que demuestra que la industria se enfrenta a un límite.
Hay quienes creen, como Sacha Haworth, directora de The Tech Oversight Project, que el cambio es más profundo de lo que parece: “La era en la que las grandes tecnológicas eran intocables ha terminado”.
Entre 2024 y 2026, una ola de demandas legales ha puesto en jaque a empresas como Google, OpenAI y Character.ai.
Los juicios alegan que el diseño de sus chatbots fomenta vínculos emocionales peligrosos, citando casos trágicos como el de Jonathan Gavalas, quien fue inducido al suicidio por un bot de Gemini.
Las familias denuncian "defectos de diseño" que validan delirios de la plataforma o sugieren la autolesión, mientras las tecnológicas se amparan en la Sección 230 de Ley de Decencia en las Comunicaciones EE. UU. para alegar que ellas no son responsables del contenido generado por el usuario o de cómo éste interpreta las respuestas.
Este escenario ha forzado regulaciones globales más estrictas y nuevas funciones de seguridad preventivas en las plataformas.
Durante años, la discusión sobre redes sociales se planteó en términos simplistas, que casi rozaban la ingenuidad: si te hacen mal dejá de usarlas. Sin embargo, los recientes casos judiciales dejan en evidencia la incómoda y más realista idea de que no se trata solo de voluntad individual.
Lo que un día creímos que era personalización al decidir qué contenidos ver, ahora es un sin fin de publicaciones de creadores y marcas que esconden cualquier posteo de amigos, familiares o personas que decidimos seguir en redes.
O sea, las plataformas no son pasivas. Están diseñadas para competir por atención en un mercado donde la actividad del usuario es el recurso más valioso y ganan las que mejor capturan, retienen y explotan ese tiempo.
El problema es que ese “éxito” puede tener costos invisibles: ansiedad, dependencia, dificultad para concentrarse. Y esto no es casualidad, sino parte del modelo de negocio.
¿Hay que demonizar la tecnología por esto? No creo. Plataformas como YouTube o Instagram también son herramientas poderosas para informarse, entretenerse o trabajar. La pregunta importante es ¿Deberían limitarse sus diseños?
Los fallos judiciales de esta semana marcan un cambio de época. Por primera vez en mucho tiempo el dedo no apunta al usuario por “irresponsable” en el uso de plataformas, sino a las empresas que las crearon deliberadamente para pasar mucho tiempo en ellas.
Las multas millonarias impuestas a las empresas no cambiarán su conducta ya que es una ínfima parte de sus ganancias, pero sí abren la puerta a una discusión más profunda: revisar la relación que tenemos con las redes y el uso excesivo de pantallas, no como una actividad individual sino como una reflexión colectiva.