A finales de los 90, James Keene cubrió un presunto asesino en serie para esconder a un presunto asesino en serie, y ahora en la antigua inteligencia artificial acusa a Google AI Chatbot Gemini para llamarlo asesino.
Keenes Memoiren “con el diablo” sobre su estudio, sirvió durante 10 años para una conspiración relacionada con la marihuana para retirar las confesiones de un prisionero Apple TV+ Mini Series Black BirdCon Keene como productor ejecutivo.
En una demanda presentada la semana pasada, Keene Google acusa a la difamación. Afirmó que en mayo de este año, el Ki Chatbot -Gemini de la compañía Mountain View informó que cumplió una prisión de toda la vida por varias condenas y lo describió como un asesino de tres mujeres. Las declaraciones falsas eran accesibles para decenas de millones de usuarios de Internet todos los días, según la demanda el 22 de septiembre frente a la corte en Illinois.
Keene se esfuerza por daños de al menos 250 millones de dólares estadounidenses.
Google no respondió preguntas sobre la demanda. El viernes, el juez, en el caso, otorgó la solicitud de la compañía por más tiempo, hasta el 29 de octubre, para responder a la demanda en la corte.
Después de contactar a Google, Keene afirmó que la compañía se disculpó en privado por información incorrecta y acusó a la plataforma AI. Pero Géminis continuó proporcionando información falsa sobre él, incluido el decreto, “para concluir un prisión de toda la vida sin libertad condicional”, dijo la demanda del Tribunal Federal.
Se puso en contacto con Google nuevamente sobre las “declaraciones de difamación”, y nuevamente Google se disculpó, dice la demanda.
A pesar de las disculpas, las declaraciones equivocadas sobre Keene fueron accesibles durante al menos dos meses, dijo la demanda.
“Google ha demostrado que tienen un desprecio despiadado por la verdad o que publican tales declaraciones con conocimiento de su falsedad y su malicia real”, dijo la demanda.
La inclinación de las plataformas de IA, la información falsa sobre la “alucinación” e inventada ha significado que varias personalidades públicas han sido pintadas de luz negativa en una incorrecta. Marietje Schaake, miembro del Cyber Policy Center de la Universidad de Stanford, fue referido incorrectamente como terrorista en 2022 De un chatbot Ki de Facebook Meta.
En 2023, un chatgpt había afirmado erróneamente que el profesor legal del profesor de la Universidad de George Washington Jonathan Turley fue acusado de hacer comentarios sexuales Para un estudiante durante un viaje de Alaska patrocinado por la escuela, aunque Turley nunca ha hecho un viaje a Alaska con estudiantes o no fue acusado de tal comportamiento.
Ninguno de los dos incidentes condujo a una demanda. En 2023, Brian Hood, un alcalde en Australia, amenazó con amenazar a la creadora de chatgpt de San Francisco y gigante de IA Operai después de su Chatbot dijo erróneamente que estaba detenido por sobornos. Hood no presentó la demanda, según los informes, porque Openai aseguró que el resultado falso no volvería a ocurrir.
En el caso de Keene, el precedente legal puede no estar de su lado. En mayo, un juez en Georgia con OpenAi hizo una demanda en un presentador de radio. Chatt de la compañía, que respondió una serie de preguntas de un periodista, dijo falsamente que el anfitrión Mark Walters había sido acusado de queja. El juez del condado de Gwinnett, Tracie Cason, estipuló el caso de Walters y descubrió que OpenAi trata activamente de evitar que los gastos falsos de chatbot tengan en cuenta la probabilidad de resultados incorrectos y que el BOT incluso aconseja a los periodistas sobre las restricciones en su adquisición de información.
En contraste con el caso de Keene con sus presuntas quejas en Google, Cason descubrió que Walter “dijo que no había pedido a OpenAai que corrija el reclamo incorrecto o que retirara que fue acusado de apropiarse indebidamente de los fondos”.
Publicado originalmente: