Una nueva calle de navegación AI de Apple Ai Street para usuarios ciegos

No hay escasez de votos sobre los planes de Apple para liberar el riesgo equipado con la cámara. Y mientras que otra ola del dispositivo de detención es fácil de hacer que una poderosa estuche de usuario a menudo desaparezca en la miel: el acceso.

EscenaUn nuevo prototipo de la encuesta no es indiviso por la Universidad de Apple y Colombia. Aún. Pero se refiere a lo que la IA puede ser bloqueada para usuarios ciegos y raros. Aplicar Apploose Aplose y columbirts.

Las personas que son ciegas o bajas (BLV) pueden vivir desde una visión desconocida de las vistas físicas de las vistas físicas. Si bien la mayoría de las herramientas verifican su atención a la navegación, estudian las ventajas que típicamente son las instrucciones de indicadores y circulación. Stufe la imaginación que tiene una rica información y tiene la oportunidad de identificar numerosos entornos, para las personas del BLV.

Para cerrar esta diferencia, los investigadores representarán el proyecto que une API API API con un modelo multifacético que interactivo.

Página: Página: Página: Página: A la escena: Access Direct AI al borde del brillo para los usuarios ciegos

En lugar de confiar en la próxima base regular, puede estudiar toda la ruta o aproximar el cierre del combustible de la calle, que se han adaptado a sus necesidades y prioridades específicas.

El sistema admite dos especies principales:

  • Vista previa escritaEso permite a los usuarios sentir la sensación de lo que enfrentan junto con la forma específica. Esto significa que el hígado, la encrucijada visual, que las paradas de autobús se ven y así.
Página: Página: Página: Página: A la escena: Access Direct AI al borde del brillo para los usuarios ciegos
  • Capacidad virtualEso está nuevamente abierto. Los usuarios describen que los están buscando (como el área residencial de los jardines), y lo mismo les ayuda a navegarlos y ayudarlos a navegarlos y ayudarlos a navegarlos y ayudarlos a navegarlos y ayudarlos en función de este propósito.
Página: Página: Página: Página: A la escena: Access Direct AI al borde del brillo para los usuarios ciegos

Por detrás de escena, la compañía GPT-4O dentro del mapa mundial y las imágenes de Apple Maps.

Muestra las vistas peatonales, explica estructuras estructuradas estructuradas estructuradas, divididas en descripción corta, media o larga. La interfaz web que está diseñada con los lectores de pantalla ofrece todo esto en un formato completo.

Primeras pruebas prometidas pero las deficiencias más importantes (y peligrosas)

El equipo de investigación llamó con 10 usuarios ciegos o deficiencias, la mayoría de ellos fueron significativos con sus lectores de pantalla y su trabajo en tecnología.

Los participantes utilizaron las rutas de inteligencia virtual e hicieron una gran experiencia útil y significativa. El estado de crear la creación virtual, porque muchos dijeron que se les dio acceso a la información, que generalmente se les debe preguntar sobre los demás.

Sin embargo, hubo deficiencias significativas. Mientras que aproximadamente el 72% de las descripciones generadas eran con precisión, algunas eran preciosas, como las afirmaciones de Cross o las señales de señal escritas.

Si bien la mayoría de los datos eran estables en el momento, varias descripciones clasificaron detalles antiguos o temporales, como las áreas de construcción o las máquinas de estacionamiento.

Página: Página: Página: Página: A la escena: Access Direct AI al borde del brillo para los usuarios ciegos

Los participantes también señalaron que el sistema a veces adivina sobre las habilidades físicas del usuario y el entorno en sí. Varios usuarios notaron la necesidad de un lenguaje objetivo y una mejor precisión diagnóstica, especialmente para la última navegación. Otros quieren que el sistema pueda ser rápidamente a palabras estáticas en lugar de depender de palabras estáticas.

Los Cires definitivamente no son el producto de un portador y estudia un modelo API del modelo de idiomas grandes y mapas de manzanas. Pero alguien puede tirar de la línea de uno a otro. De hecho, eso se da al final del estudio:

Los participantes expresaron un fuerte deseo de acceso real a la descripción del movimiento mientras caminaban. Tienen aplicaciones que visualmente transparentes datos a través de auriculares o regímenes de transparencia para hacer los detalles apropiados. Como P9 dejó P9 «¿Por qué no puede [maps] la capacidad de generar ayuda para [provide] Más información sobre lo que vas. «

Los participantes sugirieron usar más corto, ‘mini’ (P1), marque las descripciones cuando camina y los detalles de justificar solo como letreros o peatones. Descripciones completas de descripciones, es decir Se pueden descubrir aplicaciones menos hechas al detener o alcanzar o alcanzar los cortes.

Otro participante (P4) sugirió una nueva forma de cooperación que los usuarios son usuarios «Puede enumerar el dispositivo en una dirección particular» Para obtener la descripción requerida, en lugar de la cámara de su teléfono para obtener el entorno, al menos la cámara de su teléfono. Esto permite a los usuarios estudiar su entorno en tiempo real, navegar por esta navegación y respuesta.

Como otros investigadores publicados en los Arcons, Supremo: para acceder a AI Aent para acceder a AI Aent a la dirección de interno de Semento para usuarios ciegos no visto. Sin embargo, si desea saber que se requiere la disponibilidad y la visión de la computadora es inevitable.

Acuerdos de AirPods en Amazon

FTC: Utilizamos el ingreso de enlaces atractivos. Más.

Fuente