Un grupo líder en defensa de la seguridad infantil se ha asociado con OpenAI para promover una iniciativa electoral en todo el estado que, según dice, sería la medida de seguridad de inteligencia artificial para niños más completa del país.
Si la medida se incluye en la boleta electoral en noviembre y los votantes de California la aprueban, el Ley de IA segura para padres e hijos requeriría que las empresas adopten un conjunto de requisitos destinados a proteger a los menores de efectos potencialmente dañinos asociados con el uso de IA y autorizaría al fiscal general a hacer cumplir esas reglas.
Relacionado: ¿Prohibir las redes sociales para niños? Este legislador de California dice que Australia está en lo cierto
“En este momento crucial para la IA, no podemos cometer el mismo error que cometimos con las redes sociales, cuando las empresas utilizaban a nuestros hijos como conejillos de indias para ayudar a alimentar nuestras vidas. Crisis de salud mental juvenil en Estados Unidos y en todo el mundo”, dijo en un comunicado James Steyer, fundador y director ejecutivo de Common Sense Media.
“Los niños y los jóvenes ahora necesitan barreras de protección de la IA”, añadió. “Es por eso que seguiremos todas las vías, desde la legislativa hasta la votación”.
El interés público en la seguridad de los niños en línea, particularmente en lo que respecta a la IA, ha crecido a lo largo de los años, debido en parte a incidentes como la muerte de Adam Raine, un joven de 16 años del condado de Orange cuyos padres demandaron al fabricante de ChatGPT OpenAI, alegando que su hijo fue entrenado por su chatbot antes de suicidarse el año pasado.
Ahora, la Ley de IA segura para padres e hijos exige que las empresas de IA utilicen tecnología de control parental para determinar si alguien que utiliza su plataforma es menor de edad y para evitar que los niños y adolescentes se vuelvan emocionalmente dependientes de los sistemas de IA, entablen una relación romántica simulada con ellos o les permitan creer que están hablando con un ser humano.
También se requerirían salvaguardias para evitar que los menores vean contenido generado por IA que promueva la autolesión, los trastornos alimentarios, la violencia y los actos sexualmente explícitos; prohibir la publicidad dirigida a menores de edad; Prohibir a las empresas vender datos sobre menores sin el consentimiento de los padres; y brindar a los padres la capacidad de monitorear o limitar el uso de la IA por parte de sus hijos y recibir alertas si sus hijos muestran signos de autolesión.
Además, requeriría que las empresas de IA realicen revisiones de seguridad independientes y evaluaciones anuales de riesgos para la seguridad infantil, y permitiría al fiscal general investigar e imponer sanciones financieras a las empresas.
“Vemos esto como un cinturón de seguridad social para la era de la IA”, dijo Steyer durante una llamada con periodistas este mes.
RELACIONADO: Los padres de California afirman que OpenAI debilitó la protección contra el suicidio del chatbot poco antes de la muerte del adolescente
Antes de fundar Common Sense Media, Steyer fundó Children Now, una organización nacional de medios y defensa, y fue presidente y director ejecutivo de JP Kids, una empresa líder de medios educativos para niños. También enseñó lectura y matemáticas en las escuelas de la ciudad y es considerado un defensor de los niños desde hace mucho tiempo.
Durante la misma conferencia de prensa, Chris Lehane, director de asuntos globales de OpenAI, dijo que la IA es una herramienta de empoderamiento que ayuda a las personas a resolver problemas complejos. También es crucial, dijo, que los padres tengan la capacidad de controlar cómo sus hijos usan la tecnología.
Dijo que la esperanza de OpenAI es que las protecciones descritas en la iniciativa electoral propuesta no solo se adopten en California, sino que sirvan como modelo para otros estados e incluso para el gobierno federal.
“Al final del día, creo que se trata realmente de estar verdaderamente comprometidos con el bien común”, dijo Lehane.
“Estamos en el comienzo de la era de la inteligencia. Intentemos hacerlo bien”, añadió.
La Ley de IA segura para padres y niños representa la fusión de dos iniciativas electorales anteriores introducidas el año pasado: una de Common Sense Media y la otra de OpenAI. Representantes de las dos organizaciones dijeron que decidieron trabajar juntos en una única propuesta en lugar de confundir a los votantes con medidas contrapuestas.
La iniciativa electoral original de Common Sense Media fue similar a una factura que el gobernador Gavin Newsom lo vetó el año pasado.
Poco después, OpenAI introdujo su propia medida de votación, que tuvo un amplio reflejo un proyecto de ley que Newsom ya había firmado entró en vigor el otoño pasado. Este proyecto de ley exige que las empresas informen a los usuarios que un chatbot complementario es generado por IA si una persona razonable podría confundirlo con una interacción humana real, y les exige que adopten protocolos para evitar que los chatbots produzcan contenido que promueva el suicidio o la autolesión.
Cuando se combinaron las dos medidas, Common Sense Media quedó rezagado dos de sus disposiciones anteriores. A los estudiantes se les habría prohibido el uso de teléfonos inteligentes durante la jornada escolar. Otra disposición pedía que las escuelas enseñaran alfabetización y seguridad en IA para ayudar a los estudiantes a comprender cómo usar la IA de manera responsable y ética.
Los partidarios de la iniciativa tienen hasta el 24 de junio para recolectar los cientos de miles de firmas de votantes que necesitan para incluir la propuesta en la boleta electoral de noviembre.
















