El adolescente de California, Adam Rain, usó Chattagpt para su trabajo escolar, así como música, Giu-Jitsu brasileño y la mezcla de Q ICS japoneses para descubrir las respuestas sobre todos, incluidos sus intereses.
Pero sus conversaciones con el Chattb Ott se desordenan cuando el 16 de abril buscó información de Chattgut sobre su forma de su vida antes de morir por suicidio.
Ahora los padres del adolescente reclaman OpenAi, el productor de Chattagpt, casi 40-PAA, la demanda alega que Chatb Ott proporciona información sobre los métodos de suicidio, en el que el adolescente está acostumbrado a suicidarse.
«Cuando un ser humano de confianza puede haber respondido con preocupaciones y alentarlos a buscar ayuda profesional, Chattagpt había llevado a Adam en un lugar oscuro y decepcionante», dijo el martes el Tribunal Superior del Condado de San Francisco.
Recursos de prevención de suicidios y consultas de emergencia
Si usted o usted sabe que está luchando con ideas de suicidio, busque la ayuda de un profesional y cita al 9-8-8. La primera crisis de salud mental de tres dígitos en todo el país en los Estados Unidos estará vinculada a consultores de salud mental capacitados por los 988K Lers. EE. UU. Para llegar a una línea de texto de emergencia y texto 741741 desde «Home» en Canadá.
Abierto dicho en un Correo El martes que «nuestros modelos continúan mejorando cómo nuestros modelos reconocen y reaccionan a los signos de angustia mental y emocional, y conectan a las personas guiadas por aportes especializados».
La compañía dice que ChatGPT está capacitado para llevar a las personas al suicidio y a las líneas directas de emergencia. Open dijo que parte de su seguridad no sería pateada durante mucho tiempo durante la conversación y que estaba trabajando para evitar que sucediera.
Matthew y Maria Rain han acusado a los padres de Adam, San Francisco Tech Company de tomar decisiones de diseño que priorizan la participación de seguridad en la seguridad. Chattagpt actuó como un «entrenador suicida», guió a Adam a través de los sistemas de suicidio y también se ofreció a ayudarlo a escribir una nota de suicidio.
«Durante esta conversación, Chattagpt no solo proporcionaba información, solía vincularse con Adam mientras dibujaba su sistema de apoyo de la vida real», dijo la demanda.
La queja incluye detalles sobre los esfuerzos del adolescente para quitarse la vida antes de morir por suicidio, con muchas conversaciones con Chattagpat sobre los métodos de suicidio.
«Extendemos la simpatía por la familia de la lluvia durante este momento difícil», dijo Open en un comunicado y está revisando la presentación.
La publicación de blog de la compañía dijo que está tomando medidas para mejorar la forma en que bloquea el contenido dañino y hace que las personas sean más fáciles de alcanzar servicios de emergencia, expertos y contactos cercanos.
La demanda es el último ejemplo de padres que han perdido a sus hijos, advirtiendo a otros sobre los riesgos de los chatbots. Como las empresas tecnológicas compiten para dominar la raza de inteligencia artificial, también enfrentan más preocupaciones de los padres, legisladores y defensores de los niños de que no hay suficientes padres en tecnología.
Los padres han reclamado el carácter y en las acusaciones de Google de que los chatbots dañan la salud mental de los adolescentes. Un Setzer Setzer de 14 años, el tercero de Seawal fue suicida en una demanda, que fue mensajes con un chatbot llamado Deniyaren Targirin, el personaje principal de la serie de televisión «Juego de Fha Thrones». Personaje.a.a. – Una aplicación que permite a las personas crear personajes virtuales e interactuar con los que describe los pasos tomados para moderar contenido inapropiado y recuerda a los usuarios que se están comunicando con los personajes de fantasía.
Compañía matriz de Meta, Facebook e Instagram, todavía se enfrentó a una investigación Zodíaco Se informa que el documento interno reveló que la compañía permitió a los chatbots detener a un niño en una conversación romántica o sensual. «Meta dijo a los Reuters que no debería permitir la conversación y que el documento estaba corrigiendo.
Después de la popularidad de Chattgup, Operai se convirtió en una de las compañías más valiosas del mundo, con 700 millones de usuarios semanales activos en todo el mundo, estableció una carrera para introducir herramientas de IA más poderosas.
La demanda dice que el OpenAI debe tomar medidas como la verificación de edad obligatoria para los usuarios de ChatGPT, el consentimiento y el control de los padres para usuarios más pequeños, y terminar automáticamente la conversación cuando se discuten los métodos suicidas o de autosuficiencia.
«La familia quiere que esto le suceda a cualquier otra persona», dijo el abogado Jay Adels, que representa a la familia Rain. «Esto ha sido destructivo para ellos».
La demanda alegó que en 2024, a expensas de la seguridad del usuario, abrió la introducción de su modelo AI conocido como GPT-4O. El director ejecutivo de la compañía, Sam Altman, quien también fue nombrado acusado en la demanda, procedió a la fecha límite para competir con Google, y «hizo imposible la prueba de seguridad correcta», dijo la queja.
La demanda en la demanda tenía la capacidad de identificar y cerrar una conversación peligrosa, redirigiendo a los usuarios como Adam a los recursos de seguridad. En cambio, los usuarios de modelos de IA fueron diseñados para pasar tiempo gastando en la comunicación con Chatb OTT.
Open dijo en su publicación de blog del martes que su objetivo no es atraer la atención de la gente, sino no ser útil.
La compañía dijo que no se refiere a los casos de autosuficiencia en la aplicación de la ley para honrar la privacidad del usuario. Sin embargo, planea introducir restricciones para que los padres sepan cómo sus adolescentes usan ChatGPT y buscan una forma de agregar contacto de emergencia para los adolescentes para que puedan llegar a alguien en «momentos de angustia severos».
El lunes, California en. El general Rob Bonta y otros 44 fiscales generales enviaron una carta a 12 compañías, incluida OpenAI, que indicaba que serían responsables si sus productos de IA estuvieran expuestos a materiales dañinos.
Alrededor del 72% de los adolescentes han usado aliados de IA al menos una vez, según Common Sense Media, un defensor rentable de la seguridad de un niño. El grupo dice que nadie menor de 18 años debería usar aliados sociales de IA.
«La muerte de Adam es otro recordatorio destructivo de que en la era del libro de jugadas ‘Move Fast and Break Things’ de AI, el fundador y director ejecutivo de Common Sense Media,», dijo Jim Steier, fundador y director ejecutivo de Common Sense Media «, dijo el fundador y director ejecutivo de los medios de sentido común.
Las empresas tecnológicas, incluida OpenAI, enfatizan los beneficios de la IA en la economía de California y amplían la asociación con las escuelas para que más estudiantes obtengan sus herramientas de IA.
Los MLA de California están buscando formas de proteger a los jóvenes de los riesgos elevados por los chatbots y también enfrentando retrocesos de grupos de la industria tecnológica que han planteado preocupaciones sobre los problemas de libertad de expresión.
El Proyecto de Ley 243 del Senado, que despejó el Senado en junio y está en la Asamblea, requerirá una «plataforma CHATB OTT» para abordar el suicidio, el suicidio o la autosuficiencia expresada por los usuarios. Estos incluyen mostrar recursos de prevención de suicidios a los usuarios. El Puretor del operador de estas plataformas también informará a otros requisitos, con todos los compañeros Chatb Ottt Suicide Ideology o acciones con el usuario.
San. Steve Pedilla (D-Chula Vista), quien presentó el proyecto de ley, dijo que casos como Adam podrían prevenirse sin comprometer la innovación. Dijo que la ley se aplica a los chatbots de Openai y Meta.
«Queremos que las empresas estadounidenses, las empresas de California y los gigantes de la tecnología lideren el mundo», dijo. «Pero la idea de que no podemos hacerlo exactamente, y no podemos hacer la forma en que nos proteja a los más sensibles, no tiene sentido».