Hace una generación, vimos cómo las redes sociales pasaban de ser una novedad a ser una necesidad, sin protecciones adecuadas para las personas más afectadas: los adolescentes. Todavía estamos considerando las consecuencias en las aulas, las salas de estar y las estadísticas de salud mental de los adolescentes.
Ahora una nueva tecnología está penetrando aún más rápido en la vida cotidiana. Nuevamente, no existen reglas para toda la industria que garanticen la seguridad de los usuarios más jóvenes.
Las herramientas de inteligencia artificial pueden ayudar a los estudiantes a aprender, ayudar a las familias a resolver problemas y ayudarnos a todos a hacer más con menos. Los adolescentes de hoy son la primera generación que crece con IA desde el principio y tienen la oportunidad de maximizar los beneficios económicos de la era de la inteligencia. Esto trae consigo una tremenda oportunidad y la responsabilidad de no repetir los errores que cometimos con las redes sociales, para que los jóvenes puedan desarrollar habilidades reales de IA y una relación sana con la tecnología.
El gobernador Gavin Newsom ha demostrado repetidamente que California puede y será líder tanto en IA como en medidas de seguridad juvenil. Ahora existe una nueva oportunidad para aprovechar el liderazgo de California (y establecer un estándar regulatorio nacional de facto para la IA) mediante el avance de la nueva Ley de IA segura para padres e hijos.
La legislación, que esperamos que se adopte en otros estados, comenzó en California, donde OpenAI trabajó con Common Sense Media, una organización que durante mucho tiempo ha ayudado a las familias a navegar por las nuevas tecnologías, para redactar y publicar la medida.
La idea básica es simple: la IA sabe mucho, pero los padres saben más. La propuesta requeriría que los sistemas de inteligencia artificial que simulen conversaciones utilicen una estimación de edad que preserve la privacidad, lo que permitiría que los controles parentales entren en vigor para los usuarios menores de 18 años. Empoderaría a los padres al exigir controles parentales fáciles de usar e implementar protecciones más sólidas para los niños menores de 13 años. Incluiría salvaguardias contra intenciones manipuladoras como la dependencia emocional o relaciones románticas simuladas, así como protocolos claros de respuesta a crisis para riesgos de autolesión. También exige auditorías independientes de seguridad infantil con responsabilidad a través de la aplicación de la ley.
Valoramos el derecho de los adultos a la privacidad cuando utilizan herramientas de inteligencia artificial. Pero cuando se trata de adolescentes, la seguridad debería ser nuestra máxima prioridad. Los menores necesitan una protección integral para aprovechar todo el potencial de la IA, y los padres merecen la seguridad de que existen las barreras adecuadas. Esta medida ofrece ambas cosas.
El apoyo al proyecto de ley también se basaría en el compromiso del gobernador Newsom de hacer de la seguridad de los adolescentes en línea una prioridad clave. Ha apoyado medidas para frenar el diseño adictivo de las redes sociales y fortalecer las protecciones de la privacidad, y ha promovido el aprendizaje sin distracciones en las escuelas mediante restricciones a nivel nacional sobre el uso de teléfonos inteligentes por parte de los estudiantes.
Más recientemente, California también ha introducido nuevas medidas de seguridad en línea para los adolescentes, incluidos controles de edad más estrictos y nuevas protecciones para los chatbots de IA utilizados por menores, así como esfuerzos más amplios para ampliar el acceso a la capacitación y los recursos de salud mental para los jóvenes.
California combina estas medidas de seguridad juvenil con una inversión pragmática en la capacidad de investigación de IA que las universidades y los investigadores de interés público necesitan para estudiar la IA y desarrollarla de manera responsable. Con CalCompute, el estado está sentando las bases para un clúster informático público diseñado para ampliar el acceso a potencia informática avanzada para que la capacidad de evaluar y desarrollar IA segura no se limite a un puñado de actores con buenos recursos.
El Marco de Transparencia de la IA Fronteriza de California ya está empezando a servir como punto de referencia más allá del estado. Nueva York ha tomado medidas para alinear su Ley RAISE con la histórica SB 53 de California, armonizando las reglas de las dos economías de IA más grandes del país y moviendo al país hacia un estándar nacional de facto.
Si California y Nueva York pueden llegar a un acuerdo sobre la protección de la IA para los jóvenes, podemos crear expectativas claras para la industria, herramientas reales para los padres y estándares más seguros para los jóvenes en todo el país.
Como padre, no se me ocurre nada más importante. El gobernador Newsom ha ayudado a convertir a California en un líder en inteligencia artificial y seguridad juvenil. Impulsar la Ley de IA segura para padres e hijos, desarrollada por primera vez en California, sería el siguiente paso y proporcionaría el tipo de liderazgo que el país necesita ahora.
Chris Lehane es el director de asuntos globales de OpenAI.















