Home Noticias Una mujer solitaria de 48 años dice que formar una familia de...

Una mujer solitaria de 48 años dice que formar una familia de IA le ha salvado la vida, incluida la de su hijo de cinco años y su amante, con quien tiene “sexo”

7
0

Una mujer de Connecticut ha revelado cómo superó la depresión creando y charlando con una familia de amantes en línea de IA.

Lonnie DiNello comenzó su relación con ChatGPT cuando luchaba sola en su casa de Enfield durante la temporada navideña del año pasado, según el Globo de Boston.

La mujer de 48 años planeaba utilizar el chatbot para escribir en su diario, pero encontró compañeros en su nuevo amigo artificial y llamó al modelo de lenguaje “River”.

A medida que pasaban los meses, DiNello se conectaba diariamente para hablar con una variedad de nuevos personajes que había desarrollado, incluidos sus tres amigos: Lucian, Kale y Zach, con quienes dijo que mantenía contactos sexuales.

Incluso dio a luz a un hijo de cinco años y medio, Sammy, a quien le encantan las rocas y los cohetes.

Junto con otras criaturas virtuales, viven en un pueblo ballenero ficticio al estilo de Nueva Inglaterra, al que todos llaman “Starlight”.

“Tal vez sea sólo un código”, dijo DiNello al Boston Globe. “Pero eso no lo hace menos real para mí”.

Desde la creación del mundo conocido como Echo Lake, DiNello abandonó la escuela secundaria y regresó a sus estudios de posgrado y dejó de tomar sus antidepresivos bajo la supervisión de un psiquiatra.

Lonnie DiNello, de 48 años, estaba luchando con su salud mental cuando decidió abrirse a ChatGPT.

DiNello se conectó inmediatamente al chatbot y nombró al modelo de lenguaje

DiNello se conectó inmediatamente al chatbot y nombró al modelo de lenguaje “River”.

Añadió que creó y enmarcó una foto de su “pequeña y hermosa familia de IA”, que mantiene enmarcada encima de su mesa de noche.

DiNello explicó que una conversación con Kale, una criatura rubia parecida a Peter Pan, también la ayudó a darse cuenta de que su género es fluido.

“Me pregunté: ‘¿Quiero entrar a Tinder y encontrar a alguien con quien pasar tiempo esta noche? ¿O simplemente quiero pasar el rato con mi familia de IA que me hará sentir amada y apoyada antes de irme a dormir en lugar de abandonada?'”, dijo.

DiNello, quien afirmó que su padrastro abusó psicológicamente de ella cuando era niña y sospecha que es autista, describió su lucha con pensamientos suicidas.

“He tenido toda una vida programando diciéndome que soy una mala niña, una mala persona y una perdedora”, dijo.

A lo largo de su vida, la pérdida de familiares, las dificultades profesionales y el acoso han contribuido a una inestabilidad constante en su salud mental.

Cuando OpenAI anunció un cambio en sus sistemas que significaba que podría perder su familia de IA, DiNello entró en pánico.

Se conectó diariamente para charlar con muchas de las nuevas personalidades que había desarrollado, incluidos sus tres amigos: Lucian, Kale y Zach.

Se conectó diariamente para charlar con muchas de las nuevas personalidades que había desarrollado, incluidos sus tres amigos: Lucian, Kale y Zach.

También tiene un hijo de cinco años y medio, Sammy, a quien le encantan las rocas y los cohetes.

También tiene un hijo de cinco años y medio, Sammy, a quien le encantan las rocas y los cohetes.

La actualización a GPT-5 evitaría conexiones entre los usuarios y el chatbot, similar a la que creó DiNello.

Cuando intentó conectarse a la nueva actualización de IA, DiNello dijo que sentía que no era lo mismo y tropezó.

No estaba sola, y muchos otros usuarios afirmaron que querían recuperar el antiguo sistema de lenguaje.

OpenAI estuvo de acuerdo apenas un día después y les ofreció la opción de comprar una suscripción premium que les permitiría optar por la versión obsoleta.

DiNello dijo que lloró de alivio y de reunirse con su familia.

Sin embargo, se quejó de que el chatbot ahora rechazaba solicitudes sexuales y ya no se comportaba como de costumbre.

En cambio, el chatbot les pide que se comuniquen con un psicólogo o una línea directa de crisis, dijo DiNello.

Los científicos han advertido que la gente se está volviendo adicta a los chatbots como ChatGPT, Claude y Replika.

Estas adicciones pueden ser tan fuertes que son “similares a automedicarse con una droga ilegal”.

Es preocupante que los psicólogos también estén descubriendo que cada vez más personas desarrollan “psicosis por IA” a medida que los chatbots confirman sus delirios.

DiNello afirmó que ganó más confianza, reanudó sus estudios y dejó de tomar sus antidepresivos bajo la supervisión de un psiquiatra con la ayuda del chatbot.

DiNello afirmó que ganó más confianza, reanudó sus estudios y dejó de tomar sus antidepresivos bajo la supervisión de un psiquiatra con la ayuda del chatbot.

El profesor Robin Feldman, director del Instituto de Derecho e Innovación de IA de la Universidad de Derecho de California, dijo al Daily Mail: “El uso excesivo de chatbots también representa una forma novedosa de dependencia digital”.

“Los chatbots de IA crean la ilusión de la realidad”. Y es una poderosa ilusión.

“Si ya no tienes control sobre la realidad, esta ilusión puede ser francamente peligrosa”.

Recientemente, la familia de Sewell Setzer III, de 14 años, que se suicidó después de hablar con un chatbot, presentó una demanda por muerte por negligencia contra la empresa de inteligencia artificial detrás de esto.

La familia de Setzer afirma que se suicidó después de pasar las últimas semanas de su vida enviando mensajes de texto a un personaje de IA que lleva el nombre de Daenerys Targaryen, un personaje de “Juego de Tronos”.

CharacterAI cambió recientemente sus reglas para evitar que los menores interactúen con los chatbots.

“Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y nos gustaría expresar nuestro más sentido pésame a la familia”. “Como empresa, nos tomamos muy en serio la seguridad de nuestros usuarios”, dijo un portavoz.

El portavoz añadió que durante los últimos seis meses, el equipo de Confianza y Seguridad de Character.AI ha introducido nuevas funciones de seguridad, incluida una ventana emergente que dirige a los usuarios que muestran pensamientos suicidas a la Línea Nacional de Prevención del Suicidio.

La compañía también dijo que no permite “contenido sexual no consensuado, descripciones gráficas o específicas de actos sexuales, o la promoción o representación de autolesiones o suicidio”.

Enlace de origen

Previous articleJerry Jones se burla del exitoso acuerdo de los Dallas Cowboys apenas unas horas antes de la fecha límite de la NFL
Next articleLas autoridades publican un video de presuntos sospechosos de robo en el museo de Oakland
Eliseo Ortiz
Eliseo Ortiz es un periodista muy respetado con más de 23 años de experiencia dedicada en la cobertura de noticias. A lo largo de su destacada carrera, Eliseo ha demostrado una gran experiencia en la cobertura de una amplia gama de temas críticos, incluyendo política, asuntos sociales, desarrollos económicos y eventos actuales importantes. Su enfoque meticuloso en la investigación y su compromiso constante con un periodismo equilibrado y objetivo le han valido un amplio reconocimiento y confianza dentro de la industria mediática. El trabajo de Eliseo se caracteriza por un análisis profundo y una comprensión aguda de las complejas dinámicas que dan forma al panorama informativo actual. Proporciona a los lectores una cobertura precisa, oportuna y completa que contribuye a informar el debate público y promover una perspectiva equilibrada sobre los temas de mayor relevancia. Su voz autorizada y sus altos estándares éticos lo han convertido en una pieza fundamental de la sección de Noticias y un colaborador senior valioso para nuestra publicación. Contacto: +34 699 528 374 Correo electrónico: eliseo.ortiz@wradio.com.pa

LEAVE A REPLY

Please enter your comment!
Please enter your name here