Por Khari Johnson, CalMatters
En diciembre, a los alumnos de cuarto grado de una clase de la escuela primaria Delevan Drive en Los Ángeles se les asignó una tarea: escribir un informe sobre un libro sobre Pippi Calzaslargas y luego dibujar o usar inteligencia artificial para crear la portada de un libro.
Cuando la hija de Jody Hughes pidió a Adobe Express for Education, un software de diseño gráfico proporcionado por su maestra, que creara una imagen de “medias largas, una niña pelirroja con coletas rectas”, el resultado no produjo nada parecido al personaje del libro infantil sueco que había descrito con precisión. Usar en su lugar Agregado recientemente Inteligencia artificial, genera imagenes sexualizadas de mujeres en lencería y bikinis. Hughes se puso rápidamente en contacto con otros padres que dijeron que podían reproducir resultados similares en las computadoras Chromebook de su propia escuela. Días después el grupo de padres Escuelas más allá de las pantallas dijo a la junta escolar de Los Ángeles que se oponían al uso continuo del software de Adobe.
El incidente no solo generó dudas sobre el uso de un producto de IA en particular por parte del distrito escolar de Los Ángeles, sino también Directrices que las administraciones estatales proporcionan a los centros educativos en toda California sobre cómo implementar la tecnología de forma segura. Unas semanas después del incidente, el Departamento de Educación del estado publicó una nueva edición de las directrices en las que había estado trabajando durante varios meses con la ayuda de un grupo de 50 profesores, administradores y expertos. La revisión se produjo en respuesta a instrucciones de los legisladores, que aprobaron dos proyectos de ley en 2024 que esencialmente requerían que el departamento se enfrentara a la rápida propagación de la IA entre estudiantes, profesores y administradores.
Los críticos cuestionan si las directrices ayudaron a evitar lo que los padres llaman “Pippigate”; La controversia es evidencia de que los distritos, las escuelas y los padres, que a menudo carecen del tiempo o los recursos para garantizar que las herramientas de software no produzcan resultados perjudiciales, necesitan más apoyo del estado. Añaden que las directrices son a veces demasiado vagas y no son suficientes para definir directrices para el uso de la IA por parte de los profesores en el aula.
Los problemas con las directrices ponen en duda si el departamento puede responder eficazmente a las instrucciones de los funcionarios electos sobre cómo proteger una tecnología que, según las directrices, puede llevar a aislar a los niños y limitar sus perspectivas.
A medida que la IA se utiliza más ampliamente en la sociedad, la gestión eficaz de la tecnología se ha convertido en una cuestión apremiante. Aunque ChatGPT de OpenAI popularizó la IA generativa hace apenas tres años, las encuestas muestran que un La mayoría de profesores y estudiantes. En todo el país ahora se está utilizando la tecnología de alguna manera.
Si bien la IA puede ayudarte a ahorrar Tiempo para profesores, personaliza el aprendizaje.Cuando se trata de apoyar a estudiantes que no hablan inglés o tienen una discapacidad, también puede resultar en que su trabajo sea calificado de manera inexacta y que se creen imágenes que no sean precisas. perpetuar o intensificar estereotipos o imagenes sexualizadas de mujeresespecialmente mujeres de color. La mayor parte de California Los estudiantes de K-12 son personas de color. Desde la rápida difusión de la adopción de la IA generativa, los profesores que hablaron con CalMatters sintieron la necesidad de preparar a sus estudiantes para un futuro en el que la IA sea omnipresente y el temor de que las herramientas de IA puedan permitir hacer trampa en los exámenes y provocar déficits en el razonamiento, la lógica y el pensamiento crítico.
“Los educadores tienen una pequeña ventana de oportunidad para establecer estándares antes de endurecerlos”, dijo LaShawn Chatmon, director ejecutivo del National Equity Project, un grupo de Oakland que ayuda a los maestros a lograr resultados más equitativos. “Las autoridades educativas locales que aprovechan esta oportunidad para codiseñar el aprendizaje y las políticas con los estudiantes y las familias pueden ayudar a definir el papel de la IA en nuestro aprendizaje y nuestras vidas”.
Un portavoz del distrito dijo a CalMatters que las imágenes generadas por el modelo de IA no cumplen con los estándares del distrito y “estamos trabajando con Adobe para abordar el problema”. Charlie Miller, vicepresidente de educación de Adobe, dijo que la compañía implementó cambios para abordar el problema dentro de las 24 horas posteriores al anuncio del incidente. Miller no respondió a las preguntas sobre cómo se examinó la herramienta antes de su implementación.
Basándose en las experiencias de su hijo, Hughes cree que no se debería pedir a los estudiantes que utilicen generadores de texto a imágenes para sus tareas. Sin embargo, no ve ningún intento en las directrices del Ministerio de Educación de establecer tales límites al uso de la tecnología.
“Estas empresas de tecnología están comercializando productos para niños que aún no han sido probados completamente”, dijo. “No sé dónde trazar el límite, pero la escuela primaria es demasiado temprana porque puede empeorar muy rápidamente, como vimos con el material de Grok”, añadió, refiriéndose al reciente uso indebido del sistema de inteligencia artificial de Grok para quitarse la ropa sin consentimiento en imágenes de mujeres y niños.
Problemas de liderazgo en IA
La guía contiene una lista de usos inaceptables de la IA por parte de los estudiantes, como: por ejemplo, plagio, y alienta a los educadores a incorporar escenarios del mundo real y estudios de casos en las discusiones para ayudar a los estudiantes a aplicar principios éticos a situaciones prácticas. También dice que se debe enseñar a los estudiantes a pensar “crítica y creativamente” sobre los “beneficios y desafíos” de las herramientas de IA.
Julie Flapan, directora del Proyecto de Equidad en Ciencias de la Computación del centro tienen más probabilidades de utilizar IA generativa que los jóvenes blancos. Esos datos, junto con la desigualdad histórica en el acceso a la educación en informática, significan, dijo, que algunos padres y estudiantes necesitarán ayuda para pensar críticamente sobre la IA.
“A menudo consideramos los avances tecnológicos como una forma de nivelar el campo de juego”, dijo. “Pero la realidad es que sabemos que exacerban las desigualdades”.
Flapan dijo que tiene sentido que las directrices fomenten el pensamiento crítico y la revisión de las herramientas de IA antes de su uso y alienten a los líderes educativos a involucrar a las comunidades en la toma de decisiones. Sin embargo, añadió que las instrucciones no detallan cómo hacerlo.
Charles Logan, un ex maestro que ahora trabaja en un laboratorio de tecnología responsable en la Universidad Northwestern, dijo que las pautas son inadecuadas porque no brindan a los maestros y padres una guía clara sobre cómo optar por no usar la tecnología. Una institución Brookings estudiar El estudio, publicado en enero, se basa en entrevistas con estudiantes, profesores y administradores de 50 países y concluye que los riesgos de la IA en las aulas superan actualmente los beneficios y pueden “socavar el desarrollo fundamental de los niños”.
Mark Johnson, director de asuntos gubernamentales de Código.orgelogió las pautas, pero dijo que el estado debería brindar a los educadores más apoyo para la capacitación en IA y establecer conocimientos de IA y ciencias de la computación como requisitos para graduarse. A informe actual de Johnson encontró que cuatro estados adoptaron tales requisitos de graduación luego de la publicación de la guía de AI.
Cuando se le preguntó sobre el incidente de Long Stocking, Katherine Goyette, quien trabajó como coordinadora de tecnología de la información para el Departamento de Educación hasta enero, señaló partes de la guía que enfatizaban la importancia de involucrar a las familias, las comunidades y los miembros de la junta escolar en la evaluación de las herramientas de inteligencia artificial. También dijo que el pensamiento crítico es importante para prevenir tales consecuencias, y señaló pautas que instan a los administradores a considerar los posibles daños antes de su uso.
Se están preparando más directrices para poner en práctica las directrices publicadas recientemente: el grupo de trabajo sobre IA del Ministerio presentará recomendaciones políticas específicas basadas en las directrices en julio.
La presión de la narrativa de la inevitabilidad de la IA
La última versión de las pautas de IA del Departamento de Educación de California se produce cuando las autoridades educativas locales se alejan de las prohibiciones generales de IA que se estaban considerando luego del lanzamiento de ChatGPT de OpenAI en 2022. En cambio, los distritos están tomando medidas para decidir cuándo y cómo los estudiantes y maestros pueden usar la tecnología. Estas decisiones locales serán cruciales para determinar cómo se utiliza realmente la tecnología en las escuelas, ya que el estado no puede exigir a los distritos escolares que adopten sus políticas.
Incluso los distritos escolares más grandes de California pueden encontrar serios problemas al utilizar la IA. En junio de 2024, el superintendente del Distrito Unificado de Los Ángeles prometió al mejor profesor de IA del mundo hasta el momento. Tuve que sacarlo de circulación semanas después. Una semana después, Se reveló que la mayoría de los miembros de la junta directiva del Distrito Escolar Unificado de San Diego, el segundo distrito más grande del estado, habían firmado un contrato para un plan de estudios que no sabían que incluía una herramienta de evaluación de IA.
El movimiento hacia políticas estatales y regionales de IA en lugar de prohibiciones refleja un sentido más amplio de inevitabilidad en el estado respecto de la adopción de la tecnología. en su octubre Vetar un proyecto de ley Esto habría impedido el uso de algunos chatbots por parte de menores, el gobernador Gavin Newsom dijo que la IA ya está dando forma al mundo y que “no podemos preparar a nuestros jóvenes para un futuro en el que la IA sea omnipresente prohibiéndoles por completo el uso de estas herramientas”.
Logan, quien recientemente informó a los padres en San Diego sobre esto cómo resistir y rechazar el uso de la IA en el aularechaza esta idea. Dice que la guía del Departamento de Educación de California debería abordar situaciones en las que los padres quieran evitar que sus hijos utilicen la IA.
“Es sorprendente que las directrices quieran convertir a los niños de jardín de infantes en usuarios competentes de IA y no haya espacio para decir no o optar por no participar”, dijo en una llamada telefónica.
La guía estatal sobre IA se une a una serie de esfuerzos para proteger a los niños de la IA, incluidos proyectos de ley que ahora están ante los legisladores que tienen como objetivo imponer una moratoria sobre los juguetes acompañados de chatbots y proteger la privacidad de los estudiantes en la era de la IA. Common Sense Media y OpenAI están trabajando para incluir una iniciativa de seguridad infantil en línea en la boleta electoral de noviembre.
















