Nota del editor: Este artículo fue escrito para Mosaic, un programa de capacitación de periodismo independiente para estudiantes que informan y fotografían bajo las instrucciones de los periodistas profesionales.
La preocupación se ha encargado de todo el país cuando los jóvenes aceptaron la IA por amistad y consejos, pero muchos adolescentes en South Bay dicen que recurren a la IA porque tienen consuelo sin ningún otro apoyo.
“El costo de la salud mental en este país puede ser inasequible”, dijo Ruby Goodwin, graduada de Santa Clara High y recién llegada de UC Irvine. “Muchas personas no tienen ganas de tener a alguien con quien confíen lo suficiente. La IA simplemente se siente, incluso si no es lo mismo”.
Pero esta facilidad puede convertirse en dependencia o incluso reemplazar la realidad. Un estudio conjunto de OpenAi y con descubrió que un uso de bot de chat diario más alto se correlacionó con más soledad y una socialización menos real.
“Si su única conexión más profunda con algo que no es real, podría sentirse aún más aislado”, dijo Monserrat Ruelas Carlos, estudiante de último año de Abraham Lincoln High en San José. Carlos está firmemente convencido de que los adolescentes tienen que hacer conexiones más personales en lugar de usar AI.
En un subcomité del Senado de los Estados Unidos a KI Security el 16 de septiembre, los padres de abuso y manipulación dijeron a AI. Un niño californiano murió de suicidio después del uso de Chatt, y otros sufrieron problemas de salud mental después de la conversación con el carácter.
Estos incidentes fortalecen el debate cuando los jóvenes recurren a las camaradas en los chatbots de IA. La primera demanda contra Openai, que fue presentada por los padres de otro joven adolescente de California, hace una pregunta preocupante: ¿ha planeado un adolescente de California su suicidio con Chatt después de meses de discusiones emocionalmente estresadas?
Este caso, presentado por sus padres, tiene lugar solo unas pocas semanas después de un informe de que tres de cada cuatro adolescentes han usado IA para la camaradería, según el grupo representativo de Investigación e Interés sin fines de lucro Common Sense Media. El 29 de septiembre, OpenAI comenzó los controles parentales para ChatGPT, lo que significa que los padres podrían restringir el uso de adolescentes y enviar una advertencia si ChatGPT determina que un adolescente puede estar necesitado.
Los expertos en salud mental advierten que las consecuencias pueden ser graves, ya que las constantes discusiones de IA pueden difuminar los límites y la dependencia de combustible.
“Es lo mismo que un depredador humano”, dijo Oscar Martínez, consultor de Santa Clara High. “¿Por qué lo excusamos porque es una unidad en línea no humana? Si fuera una persona en la vida real, habría consecuencias”.
Otros críticos crían banderas rojas éticas.
“AI le falta un sentimiento más humano de moralidad”, dijo Ananya Daas, junior de Santa Clara. “Cuando los amigos hablan sobre qué hacer con los conflictos, hay consejos que se sienten fríos. Se siguen sin pensar”.
Algunos adolescentes observaron patrones más oscuros. Tonic Blanchard, estudiante de último año en San Joses Lincoln High, describió cómo algunas aplicaciones de IA rápidamente se volvieron sexuales, incluso cuando marcó como menor.
“Estas aplicaciones prueban deliberadamente las aguas”, dijo Blanchard. “(Ai -Bots) se basan en la soledad. Por eso es depredador”.
Los expertos en salud mental dicen que incluso la IA bien intencionada no es un sustituto de las relaciones humanas.
“La IA es naturalmente agradable … pero hay algunas cosas que necesitan una intervención más formal que AI simplemente no puede ofrecer”, dijo Johanna Arias Fernández, un empleado de la comunidad en la escuela secundaria de Santa Clara. Según su demanda, los padres del chatgpt adolescente de California no intervinieron cuando estaba claro que su hijo planeó su suicidio.
Ahora los legisladores notan.
“Estoy absolutamente horrorizado por la noticia de los niños que fueron dañados por sus interacciones con IA”, dijo el fiscal general de California, Rob Bonta, quien recientemente exigió que con otros 12 abogados en general en una carta que las grandes compañías de IA estén estrictamente disponibles.
Según su demanda, los padres del chatgpt adolescente de California no intervinieron cuando estaba claro que su hijo planeó su suicidio. La demanda requiere medidas de protección más fuertes de empresas que culpan a OpenAi por promover la dependencia psicológica y el riesgo de los jóvenes.
Operai no respondió una solicitud de comentarios.
Sin embargo, en una contribución en su sitio web, la compañía puede reconocer que la protección de seguridad puede recurrir en discusiones más largas con ChatGPT. Common Sense Media quiere que las empresas desactiven los chatbots con conversaciones sobre salud mental con adolescentes.
Mientras tanto, algunos adolescentes tienen dificultades para hacer un equilibrio y encontrar AI tentador y preocupante.
“Existe un potencial real de que la IA puede ser útil”, dijo Blanchard. “Pero en este momento está demasiado fácilmente disponible, y abusado”.
Robert Torney, un portavoz de sentido común, advirtió que sin intervención inmediata más vidas están en riesgo.
“No queremos que más adolescentes y más familias experimenten el tipo de pérdida que la familia Raine sufrió en nombre de la innovación”. Dijo Torney.
Si usted o alguien que conoce tiene que luchar con sentimientos de depresión o pensamientos suicidas, el Lifeline de 988 suicidio y crisis Lifeline ofrece apoyo, información y recursos gratuitos durante todo el día para obtener ayuda. Llame a los Lifebursts al 988 o envíe el SMS o verlos 988lifeline.org Sitio web donde el chat está disponible.
Sonia Mankame es miembro de la clase 2026 en la Escuela Secundaria Santa Clara.
















