Nouvelles interactions humaines — IA. Comment l’intelligence artificielle change-t-elle notre façon d’utiliser les appareils ? | IA dans les affaires #22

Comment fonctionnent les Interfaces Utilisateur Intelligentes (IUI) en cas d’interactions avec l’IA ?

Les Interfaces Utilisateur Intelligentes (IUI) sont des interfaces qui utilisent des techniques d’interaction avec l’IA pour améliorer l’expérience humaine avec les appareils. Les IUI peuvent, par exemple, reconnaître la parole ou les gestes d’un utilisateur, s’adapter aux préférences en fonction de l’analyse des interactions passées avec l’IA, ou aider à accomplir des tâches. En effet, l’objectif est de créer un moyen intuitif et naturel de communiquer avec des dispositifs électroniques, ou Interface Utilisateur Naturelle (NUI). Bien que l’utilisation d’une telle interface nécessite également un apprentissage, cela est intrinsèquement facilité, donnant l’impression que tout se passe naturellement et que l’interface elle-même est invisible.

Aujourd’hui, les interfaces tactiles sont les plus largement appliquées et les interfaces vocales sont les plus développées. Les développements futurs prometteurs incluent la reconnaissance des gestes en VR et AR, les Dispositifs Intelligents et les interfaces cerveau-machine.

Des exemples d’applications IUI concernent les assistants vocaux intelligents tels que Siri ou Alexa, qui comprennent les questions posées par la voix et fournissent des réponses ou exécutent des commandes. D’autres exemples sont des IUI qui utilisent des capteurs pour suivre les mouvements du corps, les gestes ou le regard pour contrôler des dispositifs. Elles présentent :

  • Traitement du Langage Naturel (NLP) pour comprendre et créer de la parole,
  • Reconnaissance d’Image (Vision par Ordinateur) pour interpréter des matériaux visuels,
  • Apprentissage Automatique (ML) pour reconnaître des motifs et prédire le comportement des utilisateurs.

Vous pouvez appliquer l’apprentissage automatique, entre autres, pour interpréter les ondes cérébrales captées par des écouteurs intelligents. Cette solution a été développée par Neurable pour créer des écouteurs dédiés au travail, qui détectent les moments de concentration et permettent de déterminer avec précision le moment et les conditions optimales propices à la concentration. De plus, pendant les périodes de concentration, les écouteurs de Neurable coupent automatiquement les appels entrants et vous permettent de passer à la chanson suivante que vous écoutez avec vos pensées.

Source : Neurable (https://neurable.com/headphones)

Applications commerciales des interfaces tactiles

Les interfaces tactiles sont extrêmement populaires en raison de leur polyvalence. C’est pourquoi les entreprises ont rapidement dépassé le domaine des smartphones et des écrans d’appareils électroménagers. Elles sont de plus en plus courantes dans les distributeurs automatiques de billets ou de collations, les serrures et les portes d’aéroport.

Taper, glisser, faire glisser, appuyer longuement – ce ne sont là que quelques-uns des gestes qui dominent notre expérience numérique. Avec eux, nous pouvons à la fois taper sur un clavier affiché à l’écran, appuyer sur des boutons et naviguer par les mouvements d’un ou plusieurs doigts, ou même de toute la main.

En utilisant l’IA, les dispositifs tactiles sont devenus plus par défaut, complétant des mouvements non reconnus correctement par l’appareil. Ils combinent les données de l’interface tactile avec des gestes reconnus par la caméra, améliorant la fluidité de l’expérience utilisateur et augmentant imperceptiblement le plaisir et la sécurité d’utilisation des dispositifs.

Gestes tridimensionnels, réalité virtuelle et réalité augmentée avec des interactions IA

Grâce à la reconnaissance des gestes, nous opérons de plus en plus par le mouvement seul dans des interactions IA sans contact avec des portes, des lavabos ou des écrans de voiture. L’automobile est également en train de se répandre. BMW, par exemple, a récemment introduit une fonction de contrôle par gestes avec un affichage sans contact pour gérer le volume de la voiture, les appels et d’autres fonctions.

Il convient également de noter les logiciels pour le fonctionnement sans contact des dispositifs disponibles dans les lieux publics. Sur le marché, vous pouvez trouver :

  • TouchFree – un programme qui permet aux entreprises de mettre à niveau les kiosques et écrans tactiles basés sur Windows existants vers un contrôle par gestes sans contact,
  • Banuba – une solution pour le fonctionnement basé sur les gestes dans l’espace, comme sélectionner un produit en pointant du doigt ou ajouter à un panier d’achat avec un geste de pouce levé, qui sera particulièrement pratique dans les magasins avec des technologies de réalité augmentée, où vous pouvez essayer des vêtements virtuels, par exemple,
  • Source : Banuba (https://www.banuba.com/solutions/touchless-user-interface)

En effet, les interactions IA jouent un rôle clé dans le contrôle par gestes en réalité virtuelle (VR) et en réalité augmentée (AR). L’IA intervient ici pour reconnaître la position du corps et interpréter les mouvements et gestes des utilisateurs, leur permettant d’interagir naturellement avec des objets et des environnements virtuels avec leurs mains ou des contrôleurs. Un exemple est l’Oculus Quest 2, des lunettes VR équipées de caméras qui suivent les mouvements des mains pour contrôler intuitivement des objets dans le monde virtuel. Les fonctionnalités VR et AR dans les affaires pour :

  • la formation et les simulations, où le contrôle par gestes permet une interaction IA plus naturelle et intuitive,
  • la manipulation de modèles 3D lors de travaux de conception et d’ingénierie, y compris dans une équipe qui n’est pas située dans un seul espace physique,
  • les achats et les présentations de commerce électronique – les entreprises utilisent la RA pour créer des expériences d’achat interactives où les clients peuvent utiliser des gestes pour parcourir des produits et des informations.

Un des derniers exemples d’application des interactions IA pour le contrôle par gestes en VR et AR est l’Apple Vision Pro. C’est un dispositif de calcul spatial qui n’a pas de mécanisme de contrôle matériel. Au lieu de cela, le Vision Pro s’appuie sur le suivi des yeux et les gestes des mains pour permettre aux utilisateurs de manipuler des objets dans l’espace virtuel devant eux.

Source : Apple (https://www.apple.com/newsroom/2023/06/introducing-apple-vision-pro/)

Apple Vision Pro propose des gestes tels que taper, double taper, pincer et faire glisser, ainsi que des gestes à deux mains tels que zoomer et faire pivoter. Ces gestes s’appliquent à diverses actions, telles que sélectionner et manipuler des objets, faire défiler, déplacer des fenêtres et ajuster leur taille.

Dispositifs et logiciels de contrôle vocal – comment les utiliser dans votre entreprise ?

Le rôle croissant de l’intelligence artificielle signifie que de plus en plus de dispositifs et d’applications utilisent également des Interfaces Utilisateur Vocales (VUI). Elles disposent de technologies qui convertissent la parole en texte (STT) et le texte en parole (TTS).

Le contrôle vocal est déjà très largement appliqué dans les affaires pour :

  • Le service client – le client peut parler à des voix intelligentes de produits et de marketing, telles qu’Inteliwise (Efecte),
  • La création de documents – par exemple, avec la saisie vocale de Google Docs, qui permet aux utilisateurs de dicter du texte directement dans un document,
  • La conduite de réunions internationales – l’interface vocale permet de traduire votre discours en temps réel avec un traducteur automatique, en utilisant Google Translate lors des conversations Google Meet, ou en utilisant un outil dédié tel que Verbum.ai.

Source : Verbum.ai (https://verbum.ai/).

De nombreuses personnes utilisent également le contrôle vocal du logiciel de la voiture, par exemple, pour définir une destination de navigation, et pour contrôler des dispositifs intelligents pour gérer l’éclairage de bureau.

L’avenir des interactions IA, ou interface cerveau-machine

Le moyen idéal d’interactions IA avec des dispositifs serait naturel, c’est-à-dire complètement invisible pour l’utilisateur. Et ce n’est pas une pure fantaisie. Il existe déjà des prototypes d’interfaces cerveau-machine qui fonctionnent à des vitesses inimaginables, semblables à la télépathie électronique.

Les travaux les plus avancés sur l’interface cerveau-ordinateur, ou interface cerveau-ordinateur (BCI) sont menés par Neuralink. C’est une entreprise qui développe une interface appelée “The Link”, qui est déjà en phase de test clinique.

Source : Neuralink (https://neuralink.com/)

The Link est une puce de la taille d’une pièce de monnaie qui est implantée chirurgicalement sous le crâne, où elle se connecte à de fins fils appelés fils neuronaux qui s’étendent vers différentes parties du cerveau.

Les fils neuronaux contiennent des électrodes qui peuvent enregistrer et stimuler l’activité cérébrale, permettant de décoder et d’encoder les signaux neuronaux et d’envoyer des informations vers et depuis un ordinateur ou un dispositif mobile.

The Link est implanté par un robot neurochirurgical et permet ensuite de contrôler une application qui permet à l’utilisateur de manipuler un clavier et une souris avec ses pensées.

Cependant, de telles solutions avant-gardistes suscitent autant d’espoirs que de préoccupations. D’une part, on pourra simplement penser : “Je veux publier une note sur les réseaux sociaux concernant un événement d’entreprise avec un portrait du PDG pris lors de l’ouverture de la réunion.” D’autre part – comment s’assurer que la connexion n’écoute pas nos pensées privées ?

Si vous aimez notre contenu, rejoignez notre communauté de abeilles actives sur Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest.

Robert Whitney

Expert en JavaScript et instructeur qui forme les départements informatiques. Son objectif principal est d'améliorer la productivité de l'équipe en enseignant aux autres comment coopérer efficacement lors du codage.

View all posts →

Robert Whitney

Expert en JavaScript et instructeur qui forme les départements informatiques. Son objectif principal est d'améliorer la productivité de l'équipe en enseignant aux autres comment coopérer efficacement lors du codage.

Share
Published by
Robert Whitney

Recent Posts

Le rôle de l’IA dans la modération de contenu | IA dans les affaires #129

Les entreprises luttent pour gérer une vaste quantité de contenu publié en ligne, des publications…

3 days ago

Analyse de sentiment avec l’IA. Comment cela aide-t-il à provoquer des changements dans les entreprises ? | IA dans les affaires #128

À l'ère de la transformation numérique, les entreprises ont accès à une quantité sans précédent…

3 days ago

Meilleurs outils de transcription IA. Comment transformer de longs enregistrements en résumés concis ? | IA dans les affaires #127

Saviez-vous que vous pouvez obtenir l'essence d'un enregistrement de plusieurs heures d'une réunion ou d'une…

3 days ago

Génération de vidéos par IA. Nouveaux horizons dans la production de contenu vidéo pour les entreprises | IA dans les affaires #126

Imaginez un monde où votre entreprise peut créer des vidéos engageantes et personnalisées pour n'importe…

3 days ago

LLMOps, ou comment gérer efficacement les modèles de langage dans une organisation | IA en affaires #125

Pour tirer pleinement parti du potentiel des grands modèles de langage (LLMs), les entreprises doivent…

3 days ago

Automatisation ou augmentation ? Deux approches de l’IA dans une entreprise | IA en affaires #124

En 2018, Unilever avait déjà entrepris un voyage conscient pour équilibrer les capacités d'automatisation et…

3 days ago