Apple ajoute le suivi oculaire et bien plus encore à ses appareils de plus en plus accessibles

Les offres d'accessibilité d'Apple continuent de se développer, à mesure que de nouvelles fonctionnalités telles que le suivi oculaire des appareils, l'écoute de musique améliorée par le toucher et les paramètres pour les personnes ayant une parole atypique arrivent sur les appareils en déplacement.

Annoncée au milieu d'un mois de reconnaissance de la Journée mondiale de sensibilisation à l'accessibilité (16 mai), la gamme d'options de personnalisation pour aider les utilisateurs handicapés physiques à mieux contrôler et interagir avec leur iPad ou iPhone.

VOIR ÉGALEMENT:

Google I/O : Google annonce un nouveau cadre de sécurité pour une IA responsable

“Ces nouvelles fonctionnalités auront un impact sur la vie d'un large éventail d'utilisateurs, en offrant de nouvelles façons de communiquer, de contrôler leurs appareils et de se déplacer dans le monde”, a écrit Sarah Herrlinger, directrice principale des politiques et initiatives mondiales en matière d'accessibilité chez Apple.

Eye Tracking capitalise sur l’apprentissage automatique

Les nouvelles commandes de suivi oculaire d'Apple sont, sans surprise, alimentées par l'IA, qui transforme la caméra frontale de l'appareil en un dispositif de calibrage pour scanner et suivre les mouvements du visage. “Avec Eye Tracking, les utilisateurs peuvent naviguer à travers les éléments d'une application et utiliser Dwell Control pour activer chaque élément, accédant à des fonctions supplémentaires telles que des boutons physiques, des balayages et d'autres gestes uniquement avec leurs yeux”, explique Apple.

Alors que les systèmes de suivi oculaire pour ordinateurs constituent une technologie établie de longue date, les appareils mobiles rattrapent lentement leur retard. Apple – et d’autres entreprises technologiques tirant profit des technologies d’IA en évolution rapide – capitalisent sur la nature intégrée de l’apprentissage automatique interne pour traiter les mouvements du visage et migrer la technologie vers une offre sans matériel ni accessoire.

Vitesse de la lumière écrasable

Music Haptics ajoute une touche aux chansons

Une fonctionnalité qui semble attendue depuis longtemps pour le service de streaming Apple Music techniquement avancé, Music Haptics permet aux utilisateurs sourds ou malentendants de profiter de la musique sur leur appareil via le toucher, en transformant le Taptic Engine de l'iPhone en un transporteur de battements et de vibrations. Lorsqu'il est activé, le paramètre ajoute « des tapotements, des textures et des vibrations raffinées » à la musique.

Pour l'instant, la fonctionnalité ne sera disponible que sur le catalogue de chansons d'Apple Music.

Les raccourcis vocaux permettent à davantage de personnes de se simplifier la vie

Reconnaissant une gamme de capacités vocales variées et de modèles de parole atypiques chez les personnes handicapées, les raccourcis vocaux permettent aux utilisateurs d'attribuer des actions à des énoncés personnalisés, et pas seulement à des phrases. Le paramètre est associé au nouveau paramètre Écouter la parole atypique, qui utilise l'apprentissage automatique sur l'appareil pour reconnaître la parole unique d'un utilisateur, destiné aux personnes souffrant de conditions affectant la parole, telles que la paralysie cérébrale, la sclérose latérale amyotrophique (SLA) ou un accident vasculaire cérébral. , explique Apple.

VisionOS, CarPlay et bien d’autres bénéficient de mises à niveau

Apple a également introduit des améliorations à sa gamme d'outils d'accessibilité, notamment un mode lecture pour l'assistant de vision de l'application, la loupe, une nouvelle option de saisie au survol pour les personnes malvoyantes, un trackpad virtuel pour ceux qui utilisent AssistiveTouch avec une portée limitée et de nouvelles personnalisations pour VoiceOver. et Contrôle vocal.

La société ajoutera des sous-titres en direct à l'échelle du système à VisionOS, ainsi que des outils tels que Réduire la transparence, Smart Invert et Dim Flashing Lights “pour les utilisateurs malvoyants ou ceux qui souhaitent éviter les lumières vives et les clignotements fréquents”.

Et, pour compléter les ajouts, les utilisateurs de CarPlay peuvent désormais accéder au contrôle vocal, aux filtres de couleur et à la reconnaissance sonore, aidant ainsi les individus à accéder aux commandes avec uniquement leur voix, à afficher des écrans adaptés aux daltoniens et à être alertés des sons extérieurs.


rewrite this content and keep HTML tags

Les offres d'accessibilité d'Apple continuent de se développer, à mesure que de nouvelles fonctionnalités telles que le suivi oculaire des appareils, l'écoute de musique améliorée par le toucher et les paramètres pour les personnes ayant une parole atypique arrivent sur les appareils en déplacement.

Annoncée au milieu d'un mois de reconnaissance de la Journée mondiale de sensibilisation à l'accessibilité (16 mai), la gamme d'options de personnalisation pour aider les utilisateurs handicapés physiques à mieux contrôler et interagir avec leur iPad ou iPhone.

VOIR ÉGALEMENT:

Google I/O : Google annonce un nouveau cadre de sécurité pour une IA responsable

“Ces nouvelles fonctionnalités auront un impact sur la vie d'un large éventail d'utilisateurs, en offrant de nouvelles façons de communiquer, de contrôler leurs appareils et de se déplacer dans le monde”, a écrit Sarah Herrlinger, directrice principale des politiques et initiatives mondiales en matière d'accessibilité chez Apple.

Eye Tracking capitalise sur l’apprentissage automatique

Les nouvelles commandes de suivi oculaire d'Apple sont, sans surprise, alimentées par l'IA, qui transforme la caméra frontale de l'appareil en un dispositif de calibrage pour scanner et suivre les mouvements du visage. “Avec Eye Tracking, les utilisateurs peuvent naviguer à travers les éléments d'une application et utiliser Dwell Control pour activer chaque élément, accédant à des fonctions supplémentaires telles que des boutons physiques, des balayages et d'autres gestes uniquement avec leurs yeux”, explique Apple.

Alors que les systèmes de suivi oculaire pour ordinateurs constituent une technologie établie de longue date, les appareils mobiles rattrapent lentement leur retard. Apple – et d’autres entreprises technologiques tirant profit des technologies d’IA en évolution rapide – capitalisent sur la nature intégrée de l’apprentissage automatique interne pour traiter les mouvements du visage et migrer la technologie vers une offre sans matériel ni accessoire.

Vitesse de la lumière écrasable

Music Haptics ajoute une touche aux chansons

Une fonctionnalité qui semble attendue depuis longtemps pour le service de streaming Apple Music techniquement avancé, Music Haptics permet aux utilisateurs sourds ou malentendants de profiter de la musique sur leur appareil via le toucher, en transformant le Taptic Engine de l'iPhone en un transporteur de battements et de vibrations. Lorsqu'il est activé, le paramètre ajoute « des tapotements, des textures et des vibrations raffinées » à la musique.

Pour l'instant, la fonctionnalité ne sera disponible que sur le catalogue de chansons d'Apple Music.

Les raccourcis vocaux permettent à davantage de personnes de se simplifier la vie

Reconnaissant une gamme de capacités vocales variées et de modèles de parole atypiques chez les personnes handicapées, les raccourcis vocaux permettent aux utilisateurs d'attribuer des actions à des énoncés personnalisés, et pas seulement à des phrases. Le paramètre est associé au nouveau paramètre Écouter la parole atypique, qui utilise l'apprentissage automatique sur l'appareil pour reconnaître la parole unique d'un utilisateur, destiné aux personnes souffrant de conditions affectant la parole, telles que la paralysie cérébrale, la sclérose latérale amyotrophique (SLA) ou un accident vasculaire cérébral. , explique Apple.

VisionOS, CarPlay et bien d’autres bénéficient de mises à niveau

Apple a également introduit des améliorations à sa gamme d'outils d'accessibilité, notamment un mode lecture pour l'assistant de vision de l'application, la loupe, une nouvelle option de saisie au survol pour les personnes malvoyantes, un trackpad virtuel pour ceux qui utilisent AssistiveTouch avec une portée limitée et de nouvelles personnalisations pour VoiceOver. et Contrôle vocal.

La société ajoutera des sous-titres en direct à l'échelle du système à VisionOS, ainsi que des outils tels que Réduire la transparence, Smart Invert et Dim Flashing Lights “pour les utilisateurs malvoyants ou ceux qui souhaitent éviter les lumières vives et les clignotements fréquents”.

Et, pour compléter les ajouts, les utilisateurs de CarPlay peuvent désormais accéder au contrôle vocal, aux filtres de couleur et à la reconnaissance sonore, aidant ainsi les individus à accéder aux commandes avec uniquement leur voix, à afficher des écrans adaptés aux daltoniens et à être alertés des sons extérieurs.

Laisser un commentaire