En anuncios sucesivos, Meta ha realizado cambios significativos destinados a empoderar a los padres y proteger a los adolescentes en Instagram y sus servicios de inteligencia artificial.
La semana pasada, Meta anunció que Instagram incluirá automáticamente a todos los usuarios menores de 18 años en cuentas de adolescentes, que de forma predeterminada contienen contenido aproximadamente equivalente a una clasificación de película PG-13. Esta semana, la compañía introdujo nuevos controles parentales para sus funciones de inteligencia artificial.
Cuentas Juveniles
El objetivo de las cuentas de adolescentes en Instagram es reducir la exposición a material para adultos, como violencia gráfica, contenido sexual explícito, lenguaje duro y acrobacias atrevidas, al tiempo que se les da a los padres más control sobre lo que ven sus hijos adolescentes.
Meta, la empresa matriz de Instagram, reconoció que “los adolescentes pueden intentar eludir estas restricciones” y, por lo tanto, está utilizando tecnología de predicción de edad para aplicar protecciones incluso cuando los usuarios tergiversan su edad. El sistema de inteligencia artificial busca pistas contextuales y de comportamiento de que alguien que dice tener 18 años en realidad podría ser más joven. No es perfecto, pero es mucho más confiable que confiar en los cumpleaños autoinformados.
Lo que verán los adolescentes
Según el nuevo sistema, las personas menores de 18 años se colocarán automáticamente en el modo “13+”. Los adolescentes no pueden desactivarlo ellos mismos. Se requiere el consentimiento de los padres para relajar los entornos. Los filtros de Instagram filtran el contenido que no cumple con los estándares PG-13, incluidas malas palabras, representaciones de uso de drogas o acrobacias peligrosas. Las cuentas que publiquen repetidamente contenido para adultos se ocultarán o serán más difíciles de encontrar, y los términos sensibles o gráficos se bloquearán en los resultados de búsqueda, incluso si están mal escritos.
Opción más estricta
Para las familias que buscan límites más estrictos, Instagram está agregando un modo de contenido restringido que filtra aún más publicaciones, comentarios e interacciones de IA. Los padres ya pueden establecer límites de tiempo diarios (solo 15 minutos) y ver si sus hijos adolescentes conversan con personajes de IA.
Los adolescentes no pueden seguir ni ser acosados por cuentas que compartan repetidamente material inapropiado. Todas las conexiones existentes se cortarán, bloqueando comentarios, mensajes y visibilidad en los feeds.
Protección de IA
Además de las nuevas protecciones para las cuentas de adolescentes, Meta está agregando herramientas de supervisión parental para ayudar a las familias a apoyar a los adolescentes que utilizan “personajes” virtuales de IA, que a menudo tienen personalidades únicas. Los padres pronto podrán desactivar por completo los chats individuales entre sus hijos adolescentes y los personajes de IA de Meta. El asistente general de IA de la compañía todavía está disponible para preguntas y apoyo al aprendizaje, pero con medidas de seguridad apropiadas para la edad.
Para las familias que no quieran bloquearlo por completo, los padres pueden restringir ciertos personajes de IA, dándoles control sobre con qué personalidades pueden interactuar sus hijos adolescentes. Las funciones de IA, como chatbots y generadores de imágenes, también están optimizadas para mantenerse dentro de los parámetros PG-13.
Los padres también obtienen información sobre los tipos de temas que sus hijos adolescentes discuten con la IA (temas generales en lugar de transcripciones) para fomentar conversaciones sobre cómo sus hijos adolescentes usan estas tecnologías.
Tragedias y medidas de protección.
No conozco ninguna consecuencia trágica de la IA de Meta, pero se han presentado demandas alegando que los chatbots de otras empresas han desempeñado un papel en los suicidios de adolescentes. En Florida, la familia de un niño de 14 años que se suicidó afirmó que el chatbot de Character AI fomentaba la autolesión. En California, los padres de Adam Raine, de 16 años, afirman que ChatGPT de OpenAI le dio instrucciones detalladas sobre el suicidio y la mejora emocional, lo que provocó su muerte en abril de 2025.
Actualmente, OpenAI está desarrollando sistemas para detectar si un usuario de ChatGPT es adulto o menor de 18 años, de modo que los usuarios más jóvenes reciban automáticamente una experiencia apropiada para su edad. Si la edad no está clara, el sistema pasa por defecto al modo adolescente. La compañía también está introduciendo controles parentales que permiten a los padres de adolescentes (de 13 años en adelante) vincular cuentas, decidir qué funciones están disponibles, como desactivar el almacenamiento o el historial de chat, recibir notificaciones cuando su adolescente pueda estar en peligro y establecer “tiempos de bloqueo” cuando no se puede usar ChatGPT.
Character.AI ahora ofrece una versión más limitada de su plataforma para adolescentes, basada en un modelo de lenguaje especial que filtra contenido sensible o sugerente y bloquea las indicaciones que infringen las reglas antes de que lleguen al chatbot. Los adolescentes tienen acceso a un grupo más pequeño de personajes, y los vinculados a temas para adultos se ocultan o eliminan. La compañía agregó recientemente una función “Parental Insights” que proporciona resúmenes semanales de las actividades de un adolescente, como el tiempo que pasa en la aplicación y los bots con los que interactúa más. Sin embargo, para proteger la privacidad y la elección del adolescente, no incluye transcripciones de chat y no otorga a los padres control total.
Riesgos emocionales
Aunque los chatbots de IA pueden brindar comodidad o un espacio seguro para practicar conversaciones, los investigadores señalan que su uso frecuente también plantea riesgos emocionales. Estudios de la Universidad de Cambridge, el Comisionado australiano de eSafety y equipos de investigación revisados por pares sugieren que algunos jóvenes están desarrollando fuertes vínculos con “amigos” de la IA, lo que puede conducir a más soledad y menos interacción con el mundo real.
Un reciente estudio conjunto de OpenAI y MIT Media Lab sobre el impacto emocional de ChatGPT, así como una encuesta separada entre adolescentes, han destacado los riesgos del uso afectivo de chatbot. El estudio longitudinal de casi mil participantes encontró que, si bien el compromiso emocional con ChatGPT es poco común en general, un pequeño subconjunto de usuarios habituales mostró tendencias preocupantes: un mayor uso diario se correlacionaba con una mayor soledad, dependencia emocional y uso problemático. Una encuesta separada confirmó esta vulnerabilidad y mostró que los adolescentes con menos conexiones sociales tienen más probabilidades de recurrir a los bots en busca de compañía.
mis pensamientos
Como suele ocurrir con los problemas de seguridad en línea, es importante no confundir la gravedad con la prevalencia. Las investigaciones muestran que, si bien la mayoría de los jóvenes tienen interacciones positivas con los chatbots de IA, algunos pueden experimentar comportamientos problemáticos o resultados negativos. Esta es la razón por la que un enfoque único para la seguridad en línea no es eficaz. Los padres deben permanecer cerca de sus hijos, comprender las tecnologías que utilizan y tomar decisiones basadas en las experiencias de sus propios hijos en lugar de en noticias que destaquen casos graves pero raros.
Divulgación: Larry Magid es director ejecutivo de Conéctese de forma segurauna organización de seguridad en Internet sin fines de lucro que asesora y ha recibido apoyo financiero de Meta, Character.AI y OpenAI
Publicado originalmente:
















