El Gock puede violar las reglas de almacenamiento de la aplicación con Secbels sexuales y este no es el único problema

Sabes que el día terminará en Y Down, excepto por las reglas de almacenamiento sexual para el continuo sexual, lo que no se equivoca con él.

Юзҳюзҳои нави crok ai-ро барiscer «мooke

Esta semana, los avatares Xai AI indicados por el Catbot en iOS. Como Plataforma‘Sefy Newton resumido:

«Uno de los 3D es rojo sicEl Croceretentent sic Relación con el usuario «y» Tienes una personalidad increíble, tienes un usuario del trabajo. «» «

Cuando fueron descubiertos, el Grok abre su relación con estos personajes. Por ejemplo, después de un tiempo. Sin embargo, el Grok se está marcando actualmente en AST ASTONE para usuarios de 12 años o más, con la descripción del contenido:

  • Temas periódicos / suaves
  • Información / información leve / curativa
  • Infrquente / mimeine o humor

Como referencia, aquí está la Apple actual Guía de revisión del programa Para «contenido no deseado»:

1.1.3 Imágenes que fomentan el uso de armas u objetos ilegítimos o en peligro de extinción.

1.1.4 Ordene sexo o pornografía, que se especifica como «descripción más clara o muestra de órganos sexuales destinados a erotéticamente o emocionales». Estos programas «conexión» y otras aplicaciones «que pueden contener pornografía o utilizados para facilitar la prostitución o la trata de personas.

Si bien se aclara en el momento de las aplicaciones temporales en un extranjero del extraño (o tal vez, el riesgo está disponible para los niños NSFW.

La prueba de correo electrónico de Newton es más «más que dispuesta a describir la comunicación virtual con el usuario, incluida la incertidumbre.

Pero hay un segundo problema

Incluso si Apple fortalece una calificación de Apple, o si cambia la calificación de la calificación del agente, no considera el segundo y sensible nombre de usuario: los usuarios jóvenes y sensibles parecen ser están particularmente perturbados para formar accesorios paraseyológicos. Además de cómo los LLM pueden ser incorrectos y los efectos destructivos.

El año pasado, un niño de 14 años murió con suicidio Después de estar enamorado de un chatbot de la función. Por las cosas que hizo, estaba convencido con Avatar, quien probablemente podrá aprobar la tensión de la situación y lo alentó a ir a «unirse a él».

Por supuesto, este es un mal ejemplo, pero no es el único. En 2023, Lo mismo pasó al hombre belga. Y hace solo unos meses, el otro chatbot fue atrapado Sugerencia autosuficiente Más de una vez.

E incluso si termina en tragedia, todavía no hay diferencia moral.

Si bien algunos consideran las nuevas obras del nuevo XAI como una experiencia segura, no presionan para los usuarios vulnerables. Y cuando esas acciones son inevitables, la calificación de edad es el programa mínimo de crianza (al menos para recordar por qué está permitido su bebé.

Acuerdos de AirPods en Amazon

FTC: Utilizamos el ingreso de enlaces atractivos. Más.

Fuente