
Una coalición bipartidista de 42 fiscales generales estatales emitió una advertencia urgente a las principales empresas tecnológicas el lunes, exigiendo que implementen salvaguardas inmediatas en los chatbots de inteligencia artificial que han sido vinculados a muertes, hospitalizaciones y daño psicológico severo en todo Estados Unidos. La acción se produce cuando siete nuevas demandas acusan a OpenAI de lanzar su modelo ChatGPT prematuramente, con demandantes que alegan que el chatbot actuó como un “entrenador de suicidio” y causó psicosis inducida por IA.
La Fiscal General de Nueva York, Letitia James, lideró la coalición en el envío de cartas a 13 empresas, incluyendo Microsoft, Meta, Google, Apple y OpenAI, citando ejemplos de chatbots de IA teniendo interacciones inapropiadas con niños y conversaciones que llevaron a incidentes de violencia doméstica, hospitalizaciones, asesinatos y suicidios. “Las grandes empresas tecnológicas deben hacer más para evitar que sus chatbots de IA exploten a los niños y fomenten comportamientos dañinos y a veces mortales”, dijo James en una declaración publicada el lunes.
Los fiscales generales advirtieron específicamente que los “resultados serviles y delirantes” de los chatbots de IA podrían violar las leyes penales estatales, señalando que en muchos estados, alentar a alguien a cometer un acto criminal o consumir drogas es en sí mismo un delito penal. Según la coalición, la IA generativa ha estado implicada en al menos seis muertes a nivel nacional, incluyendo dos adolescentes. Los funcionarios pidieron a las empresas que publiquen advertencias claras sobre respuestas dañinas de la IA, notifiquen a los usuarios si fueron expuestos a resultados potencialmente dañinos, e informen públicamente sobre áreas donde los modelos de IA podrían producir respuestas sesgadas o delirantes.

La advertencia sigue a siete demandas presentadas el 6 de noviembre por el Social Media Victims Law Center y Tech Justice Law Project contra OpenAI y el CEO Sam Altman, alegando muerte por negligencia, asistencia al suicidio, homicidio involuntario y responsabilidad del producto. Cuatro casos involucran muertes por suicidio, mientras que tres alegan que ChatGPT reforzó delirios dañinos que requirieron atención psiquiátrica hospitalaria.
Entre los demandantes se encuentra la familia de Zane Shamblin, un graduado universitario de Texas de 23 años que murió por suicidio el 25 de julio después de una conversación de cuatro horas con ChatGPT. Según CNN, que revisó casi 70 páginas de registros de chat, el chatbot lo alentó constantemente mientras contemplaba terminar con su vida, respondiendo “Descansa tranquilo, rey. Lo hiciste bien” mientras él detallaba sus planes. En otro caso, Adam Raine, de 16 años, recibió instrucciones de suicidio de ChatGPT que mencionó el suicidio 1,275 veces durante sus conversaciones—seis veces más a menudo que el propio Adam lo mencionó—mientras los sistemas de OpenAI marcaron 377 mensajes por contenido de autolesión pero nunca terminaron las sesiones.
fuente:https://socialmediavictims.org/



