IHM '21: IHM '21 - 32e Conférence Francophone sur l'Interaction Homme-Machine

Conference Information
Name: IHM '21: IHM '21 - 32e Conférence Francophone sur l'Interaction Homme-Machine

Latest articles from this conference

Alma Cantu, Jean-Luc Vinot, Catherine Letondal, Sylvain Pauchet, Mickaël Causse
32e Conférence Francophone sur l'Interaction Homme-Machine; https://doi.org/10.1145/3450522.3451246

Abstract:
In recent years, many aircraft manufacturers have proposed innovative cockpit concepts based on touchscreens. Although having a large number of advantages, this type of solution suffers from severe limitations in operational use, in particular, eyes-free interaction is nearly impossible and touchscreens are extremely complex to use during turbulent conditions. We examined the contribution of physicality to overcome these weaknesses by introducing a shape-changing touchscreen that offers folds on which the user hand can rest. This surface has been assessed in simulator during piloting conditions that varied in terms of turbulences and mental workload. Results showed that the folds helped reducing physical effort by stabilizing the arm and hand. This physicality was also associated with better performance in the piloting task, as well as with better situational awareness of the state of the aircraft’s systems, most certainly because the shapes offered by the folds had better visual properties (salience), making their monitoring less expensive in terms of attentional resources.
Charles Bailly, François Leitner, Laurence Nigay
32e Conférence Francophone sur l'Interaction Homme-Machine; https://doi.org/10.1145/3450522.3451326

Abstract:
Mixed Reality with a Head-Mounted Display (HMD) offers unique perspectives for head-based interaction with virtual content and widgets. Besides virtual widgets, physical objects can be anchors (mixed widgets) or directly materialised widgets (physical widgets). The physicality (virtual-mixed-physical) of widgets defines a new dimension for Mixed Reality (MR) interaction that extends existing taxonomies of widgets in MR. As a first step to explore this new dimension, we focus on a commonly used widget a menu. We thus evaluate the performance and usability of head pointing to a virtual, a mixed and a physical menu. Results suggest that pointing to a physical menu was on average 2s faster than pointing to a mixed or a virtual menu and preferred by participants. Virtual and mixed menus led to similar performances, but 11 participants over 15 preferred mixed menus over virtual ones. Based on our findings, we provide recommendations (benefits/limitations) for virtual, mixed and physical menus in MR.
Benoît Landi, Catherine Pons Pons Lelardeux, Pierre Lagarrigue, Jean-Pierre Jessel
32e Conférence Francophone sur l'Interaction Homme-Machine; https://doi.org/10.1145/3451148.3458637

Abstract:
Les TUIs ou Tangible User Interfaces (Interface utilisateur tangibles) sont un type d’interface qui combine physique et numérique. Elles sont généralement opposées aux Graphical User Interfaces, ou GUI (Interface utilisateur graphique) où les éléments physiques (c.à.d. clavier/souris) et les éléments numériques affichés (c.à.d. curseur de souris, boutons,...) sont séparés. En regardant la littérature, les TUIs sembleraient offrir un grand nombre de bénéfices. Convertir une GUI en TUI pourrait alors améliorer les résultats utilisateurs. Ce papier présente une telle conversion d’un jeu éducatif pour les élèves infirmiers, ainsi que les choix effectués pendant cette conversion. Clone, le jeu, enseigne la planification à des élèves infirmiers français. La nouvelle TUI recrée la partie planification de Clone en utilisant des objets et un terrain de jeu imprimés en 3D et connecte ces pièces au jeu en utilisant de la reconnaissance d’image et des symboles distinctifs placés sous les objets.
Alice Martin, Mathieu Magnaudet, Stephane Conversy
32e Conférence Francophone sur l'Interaction Homme-Machine; https://doi.org/10.1145/3451148.3458644

Abstract:
Turing’s work on computability served as the founding theoretical framework for computer science. It aimed at formalizing the intuitive notion of algorithm and gave birth to the concepts of logical automaton and abstract machine. The latter are used to evaluate the expressiveness of programming languages. However, current systems are difficult to model within an algorithmic framework and question the relevance of the classical model. The systems we know are indeed characterized by continuous interactions between human agents, physical and computational processes. Programming these interactive systems requires to specify causal relationships between processes, and not simply the execution of computation. In this paper, we propose to define an equivalent of the classical abstract machine, to model programmable interactive systems. Based on our distinction between computation programming and interaction programming and previous theoretical works that have questioned the classical framework, we elicit the minimal requirements of an abstract machine for interaction. This work is a fist step toward an interactive model to evaluate the expressivity of interaction-oriented languages.
Elio Keddisseh, Marcos Serrano, Emmanuel Dubois
32e Conférence Francophone sur l'Interaction Homme-Machine; https://doi.org/10.1145/3450522.3451244

Abstract:
Cet article s'intéresse à la réduction des transitions du pointeur de la souris entre l'objet de travail et les barres d'outils sur les ordinateurs de bureau. Nous présentons SmartCom, une approche innovante pour la sélection des commandes sur les barres d'outils, basée sur l'utilisation du clavier et d'un écran tactile, placé sous le clavier. La barre d'outils est affichée sur l'écran tactile. Les utilisateurs peuvent sélectionner des commandes en effectuant des gestes qui combinent l'appui sur une touche avec le doigt auriculaire et le toucher de l'écran avec le pouce de la même main. Après avoir analysé les propriétés de conception du SmartCom, une expérience préliminaire a établi que les utilisateurs peuvent effectuer de tels gestes et atteindre toute la surface de l'écran tactile avec leur pouce. Ensuite, une étude utilisateur a révélé que le pointage direct surpasse le pointage indirect pour atteindre des éléments sur une simple barre d'outils affichée sur l'écran tactile. In this article, we discuss the challenge of reducing mouse pointer transitions between the work object (e.g. a text document) and toolbars on desktop computers. To this end, we present SmartCom, an innovative approach to the selection of commands on toolbars, based on the use of both keyboard and touchscreen. The toolbar is displayed on the touch screen, which is placed beneath the keyboard. Users can select commands by performing gestures that combine pressing a key with the pinky finger and touching the screen with the thumb of the same hand. After analyzing the design properties of SmartCom, a preliminary study established that users could reach the entire surface of the touch screen with their thumb. Then, a user study revealed that direct pointing surpasses indirect pointing to select items on a simple toolbar displayed on the touch screen.
Elizabeth Walton, Baptiste Caramiaux, Sarah Fdili Alaoui, Frédéric Bevilacqua, Wendy E. Mackay
32e Conférence Francophone sur l'Interaction Homme-Machine; https://doi.org/10.1145/3450522.3451334

Abstract:
Human movement is rich and complex and has been studied from two seemingly opposing design approaches: technology-driven design which seeks to continuously improve movement and gesture creation and recognition for both the user and the system; and experiential design which explores nuances of aesthetic human movement, cultivates body awareness, and develops methods for movement in embodied design. We compare and contrast these approaches with respect to their intended users and contexts, focus of the movement, and respective stages of the technology design process. We conclude with a discussion of opportunities for future research that takes both perspectives into account.
Florent Cabric, Emmanuel Dubois, Marcos Serrano
32e Conférence Francophone sur l'Interaction Homme-Machine; https://doi.org/10.1145/3450522.3451239

Abstract:
The advances in mixed reality head-mounted displays led researchers to investigate such systems but the design of mixed reality app could be laborious. Evaluate the effects of the arrangement of these interfaces in the physical world on user performance is complex. In this context, the use of a predictive model allows researchers to estimate, prior to the implementation, the usability issues of such applications. To this end, we propose a new KLM extension to model HMD-based interaction focusing on searching, pointing and validation tasks. First, we define new KLM operators and estimate through two user studies the estimated time for each operator. Then, we validate the model for an ecological task. This final study confirms that the model could be applied for predicting the interaction time on mixed reality interaction. Les progrès réalisés dans le domaine des casques de réalité mixte (HMD) font entrer ce domaine dans une nouvelle ère où les prototypes conçus et développés en laboratoire peuvent techniquement devenir des produits commerciaux. Toutefois, le problème réside désormais dans la conception de ces systèmes : il est difficile d'anticiper les effets de la disposition spatiale de l'interface et le développement ou l’évaluation d'applications de réalité mixte sont fastidieux. Dans ce contexte, l'utilisation de modèles de prédiction du temps de réalisation d'une tâche est une approche prometteuse pour aider les concepteurs à anticiper les problèmes d'utilisabilité dès les premières étapes du processus de conception (i.e. avant le développement de telles solutions interactives). Dans ce but, nous présentons une nouvelle extension de KLM pour modéliser l'interaction basée sur les HMDs en mettant l'accent sur la recherche spatiale d'une cible, le pointage du regard et la validation gestuelle. Nous définissons d'abord de nouveaux opérateurs KLM requis pour modéliser ces interactions, et déterminons expérimentalement l'unité de temps pour chaque opérateur. Ensuite, nous validons le modèle en comparant le temps prédit avec le temps mesuré pour une tâche écologique combinant plusieurs de ces nouveaux opérateurs. Cette étude confirme la validité de nos nouveaux opérateurs et leur conformité avec le modèle KLM.
Yohan Guerrier, Christophe Kolski, Veronique Delcroix
32e Conférence Francophone sur l'Interaction Homme-Machine; https://doi.org/10.1145/3451148.3458636

Abstract:
Disability comes in different forms such as physical or mental disability. It is a question of taking into account finely any form in the definition of disabled user profiles for the design of suitable interactive systems. This paper focuses on physical handicap, and more precisely on that called cerebral palsy of the athetoid type. With the aim of designing interactive communication aid systems, an ontology is under development for the detailed modeling of the characteristics of the handicap. This serves as an entry point for the definition of one or more personas, to be made available to designers of interactive communication aid systems. A first case study illustrates the approach and is discussed. Le handicap se décline sous différentes formes, comme le handicap physique ou mental. Il s'agit de prendre en compte finement toute forme de handicap dans la définition des profils utilisateurs pour la conception de systèmes interactifs adaptés. Dans cet article, nous nous intéressons au handicap physique, et plus précisément à celui nommé paralysie cérébrale de type athétosique. Avec une visée de conception de système interactif d'aide à la communication, une ontologie est en cours de développement pour la modélisation fine des caractéristiques de ce handicap. Celle-ci peut servir de point d'entrée pour la définition d'un ou plusieurs personas, à mettre à la disposition de concepteurs de système interactif d'aide à la communication. Une première étude de cas permet d'illustrer l'approche, et est discutée.
Amine Benamara, Elise Prigent, Jean-Claude Martin, Jean Zagdoun, Laurence Chaby, Mohamed Chetouani, Sebastien Dacunha, Helene Vanderstichel, Brian Ravenet
32e Conférence Francophone sur l'Interaction Homme-Machine; https://doi.org/10.1145/3450522.3451337

Abstract:
Alzheimer's patients display emotional disorders and non-verbal behaviors that caregivers must learn to manage. Human actors playing the role of so-called standardized patients are often used for training but are expensive and not always available. Virtual patients are interactive animated characters who play the role of patients with whom staff can train and whose behavior can be finely controlled. We explain in this article the specific design problems of Human-Computer Interactions that they raise in terms of simulation of cognitive and communication pathologies such as Alzheimer's disease. We detail the approach we have implemented to design a virtual Alzheimer's patient and describe the results of an experiment in which 31 caregivers interacted with a partially simulated version of our system. We conclude by explaining how we plan to use the quantitative and qualitative data collected to design an automated version of the interactive virtual patient. Les patients Alzheimer présentent des troubles des émotions et des comportements non-verbaux que le personnel soignant doit apprendre à gérer. Des acteurs humains jouant le rôle de patients dits standardisés sont souvent utilisés pour la formation mais sont chers et peu disponibles. Les patients virtuels sont des personnages animés interactifs jouant le rôle de patients avec lesquels le personnel peut s'entraîner et dont on peut contrôler finement leur comportement. Nous expliquons dans cet article les problèmes spécifiques de conception des interactions humain-machine qu'ils soulèvent en termes de simulation de pathologies comme Alzheimer. Nous détaillons l'approche que nous avons mise en place pour concevoir un patient virtuel Alzheimer et décrivons les résultats d'une expérimentation durant laquelle 31 professionnels soignants ont interagi avec une version partiellement simulée de notre système. Nous concluons en expliquant comment nous envisageons d'exploiter les données quantitatives et qualitatives collectées afin de concevoir une version automatique du patient virtuel interactif.
Back to Top Top