Conception d’interactions éthiques et durables entre l’humain et les systèmes d’intelligence artificielle

Conception d’interactions éthiques et durables entre l’humain et les systèmes d’intelligence artificielle

Dounia Lahoual Myriam Fréjus  

EDF R&D - 7 Boulevard Gaspard Monge, 91120 Palaiseau, France

Corresponding Author Email: 
dounia.lahoual@gmail.com; myriam.frejus@edf.fr
Page: 
417-445
|
DOI: 
https://doi.org/10.3166/ria.32.417-445
Received: 
|
Accepted: 
|
Published: 
31 August 2018
| Citation
Abstract: 

This study aims at building a systemic and situated ethical vision, around the notion of sustainability, in order to favor more ethical and sustainable interactions between humans and Artificial Intelligence (AI). We consider that the design of the human-AI interaction has to be based on the contexts of use, the subjects’ intrinsic points of view as well as the development of the human being. To assist the human activity in an acceptable and appropriated way, the design of the AI based system must observe a set of design criteria. We illustrate these issues with a literature review on ethical criteria being discussed by public policies and ethics committees. We reflect on these results with a situated ethics point of view by considering the real uses of voice technologies in domestic and professional settings. This knowledge help to precise how to promote ethical and sustainable interactions during the design process of AI systems.

Keywords: 

ethics, sustainability, human-system interactions, artificial intelligence, voice technologies, voice assistants, domestic activities, uses, acceptability, appropriation, ergonomics, development, users

1. Introduction
2. Critères et préconisations pour l’éthique : articuler les perspectives des législateurs à une vision contextuelle de l’éthique à partir des expériences vécues des usagers de l’IA
3. Discussion et perspectives
  References

Alliance des Sciences et Technologies du Numérique – Allistene (2014). Éthique de la recherche en robotique. Rapport n°1 de la CERNA, Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene. 

Bekey G. A. (2012). Current trends in robotics: technology and ethics. In: Lin, P., Abney, K. and Bekey, G. A. eds. Robot Ethics: The Ethical and Social Implications of Robotics. London, MIT Press, pp. 17-34 

Berger E., Crescentini A., Galeandro C., Mainardi Crohas G. (2010). La triangulation au service de la recherche en éducation. Exemples de recherches dans l’école obligatoire. Actes du congrès de l’Actualité de la recherche en éducation et en formation (AREF). 

Bussone A., Stumpf S., O’Sullivan D. (2015). The Role of Explanations on Trust and Reliance in Clinical Decision Support Systems. In Proceedings of the 2015 International Conference on Healthcare Informatics (ICHI ‘15). IEEE Computer Society, Washington, DC, USA, 160-169. 

Cardon D. (2015). A quoi rêvent les algorithmes. Nos vies à l’heure. Le Seuil. 

Catellani A., Cobut E., Donjean C. (2017). Vers davantage d’éthique en communication. Edipro. 

Charney A. (2018). Amazon Alexa s’esclaffe à cause d’un problème d’écoute. 01net.com, http://www.01net.com/actualites/quand-amazon-alexa-s-esclaffe-et-terrifie-sesutilisateurs- 1391170.html (consulté le 02.09.2018) 

Cobb S. (2017). Amazon Echo and the Alexa dollhouses: Security tips and takeaways. We live security.com, https://www.welivesecurity.com/2017/01/10/amazon-echo-alexadollhouse- security/ (consulté le 02.09.2018) Commission mondiale d’éthique des connaissances scientifiques et des technologies – 

COMEST (2017). Rapport de la COMEST sur l’éthique de la robotique. Septembre 2017. Commission Nationale Informatique & Libertés - CNIL (2017-a). Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle. Synthèse du débat public animé par la CNIL dans le cadre de la mission de réflexion confiée par la loi pour une république numérique, Décembre 2017. 

Commission Nationale Informatique & Libertés - CNIL (2017-b). Pack de conformité. Véhicules connectés et données personnelles. 

Davis B. (2016). The problem with voice user interfaces like Amazon Alexa. Econsultancy, https://econsultancy.com/blog/68499-the-problem-with-voice-user-interfaces-likeamazon- alexa (consulté le 02.09.2018) 

DeRenzi B., Dell N., Wacksman J., Lee S., Lesh N. (2017). Supporting Community Health Workers in India through Voice- and Web-Based Feedback. In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (CHI ‘17). ACM, New York, NY, USA. 

Dubois M., & Bobillier-Chaumon M.-É. (2009). L’acceptabilité des technologies : bilans et nouvelles perspectives. Le travail humain, 72(4), 305. 

Edip A. (2017). Siri, Alexa, Google Home, M… Les assistants numériques, révolution ou gadget dangereux ? Capital.fr, Polemik, https://www.capital.fr/polemik/siri-alexa-googlehome- m-les-assistants-numeriques-revolution-ou-gadget-dangereux-1230739 (consulté le 02.09.2018) 

Epley N, Waytz A., Caciopo J.T. (2007). On seeing humain: A three factor theory of anthropomorphism. Psychology Revue, vol 114, n°4, pp. 864-887, 2007. European Data Protection Supervisor – EDPS (2015). Vers une nouvelle éthique numérique. Données, dignité et technologie. Avis n°4/2015.

Fleury C. (2017). La place de l’éthique dans nos vies individuelle et collective. Présentation à l’USI Events, Juin 2017. https://www.youtube.com/watch?v=x3u8xl_fxwk (consulté le 02.09.2018) 

Fortin M-F. (1996). Le processus de la recherche : de la conception à la réalisation. Montréal, Décarie éditeur. 

Frankish K., Ramsey W.M. (2014). The Cambridge Handbook of Artificial Intelligence. Cambridge University Press. Fréjus M. (À paraître). Élargissement et renouvellement des questions traitées par l’ergonomie dans le domaine du développement durable : retour sur 12 ans de travaux sur les activités domestiques et la maîtrise des consommations énergétiques. Psychologie française. 

Garcia-Acosta G., Saravia Pinilla M. H., I Romeva C. R. (2012). Ergoecology: evolution and challenges. Work 41, 2133-2140. 

Gardner-Bonneau D. (1999). Human Factors and Voice Interactive Systems. Kluwer Academic Publishers, Norwell, MA, 1999 

Guillaud H. (2016). Vers une éthique pour l’intelligence artificielle ? Internet actu.net, http://www.internetactu.net/a-lire-ailleurs/vers-une-ethique-pour-lintelligence-artificielle/ (consulté le 02.09.2018) 

Guillaud H. (2017). L’IA à la recherche de règles éthiques. Internet actu.net, http://www.internetactu.net/a-lire-ailleurs/lia-a-la-recherche-de-regles-ethiques/ (consulté le 02.09.2018) 

Harris R. (2005). Voice interaction Design, Crafting the new conversational speech systems. San Francisco: Morgan Kaufmann Publishers. 

Haué J.B. (2004). Intégrer les aspects situés de l’activité dans une ingénierie cognitive centrée sur la situation d’utilisation. @ctivités, vol. 1, n° 2, p. 170-194. 

Heritage S. (2017). Amazon’s Alexa is now part of the family – I just hope she doesn’t replace me. The guardian.com, https://www.theguardian.com/technology/ 2017/nov/19/amazon-alexa-voice-recognition-2017-best-gadgets (consulté le 02.09.2018) 

Heudin J.C. (2017). Intelligence artificielle. Manuel de survie. Science eBook. 

Hillard H. (2018). Amazon. L’assistant personnel Alexa se met à rire tout seul et effraye les utilisateurs. Ouest-France.fr, https://www.ouest-france.fr/economie/entreprises/amazon/ amazon-son-assistant-personnel-alexa-se-met-rire-tout-seul-et-effraye-les-utilisateurs- 5610264 (consulté le 02.09.2018) 

IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems (2017). Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, Version 2. http://standards.ieee.org/develop/indconn/ec/ autonomous_systems.html (consulté le 02.09.2018)                 

Institut National de Recherche en Informatique et en Automatique - INRIA (2016). Intelligence Artificielle. Les défis actuels et l’action d’Inria. Livre blanc N°01. Coordonné par B. Braunschweig. 

ISO 9241-11 (1998). Exigences ergonomiques pour travail de bureau avec terminaux à écrans de visualisation (TEV) - Partie 11: Lignes directrices relatives à l’utilisabilité. Éthique et durabilité 443 

Journal official de l’Union européenne (2016). Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données. https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32016R0679 (consulté le 02.09.2018) 

Kermisch C. (2014). L’évaluation éthique des technologies en présence de risques et d’incertitudes : une analyse critique des matrices éthiques, Proceedings du 19e Congrès de Maîtrise des risques et de sûreté de fonctionnement. 

Kermisch C. (2016). Les matrices éthiques au service des technologies à risques. Le cas de la gestion des déchets radioactifs à longue durée de vie, Proceedings du 20e Congrès de Maîtrise des risques et de sûreté de fonctionnement. 

Klemmer S. R., Hartmann B., Takayama L. (2006). How bodies matter: five themes for interaction design. In Proceedings of the 6th conference on Designing Interactive systems. ACM, 140–149. 

Kulesza T., Stumpf S., Burnett M., Yang S., Kwan I., Wong W-K (2013). Too much, too little, or just right? Ways explanations impact end users’ mental models. Proceedings of IEEE Symposium on Visual Languages and Human-Centric Computing, pp. 3-10. 

Lagarrigue J., Lebe G. (1997). Éthique ou morale ? Recherche & Formation, N°24, 1997. Conscience éthique et pratiques professionnelles. pp. 121-130. 

Lefevre F. (2017). Interaction vocale & intelligences artificielles : état des lieux et opportunités. Medium.com, https://medium.com/@francklefevre/interaction-vocaleintelligences- artificielles-%C3%A9tat-des-lieux-et-opportunit%C3%A9s-3b45239ee4a7 (consulté le 02.09.2018) 

Luria M., Hoffman G., Zuckerman O. (2017). Comparing Social Robot, Screen and Voice Interfaces for Smart-Home Control. In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (CHI ‘17). ACM, New York, NY, USA, 580-628. 

Mepham B. (2000). A framework for the ethical analysis of novel foods: the ethical matrix. Journal of agricultural and environmental ethics, 12(2), 2000, p. 165-176. 

Metwally O., Gregory B. (2017). Alexa, start living healthy! Workshop on Interactive Systems in Health Care (WISH), http://wish.gatech.edu/wp-content/uploads/metwally_omar.pdf (consulté le 02.09.2018) 

Minker W., Néel F. (2002). Développement des technologies vocales. Le travail humain, vol. 65, no. 3, pp. 261-287. Morel P.M. (2017). Vertu éthique et rationalité pratique chez Aristote. Note sur la notion d’hexis proairetikê », Philonsorbonne, 11/2017, 141-153. 

Munteanu C., Penn G. (2016). Speech-based Interaction: Myths, Challenges, and Opportunities. In Proceedings of the 2016 CHI Conference Extended Abstracts on Human Factors in Computing Systems (CHI EA ‘16). ACM, New York, NY, USA, 992-995 

Nielsen J. (1993). Usability engineering. Boston: Academic Press. 

Paolino J. (2017). Google Home vs Alexa. Two Simple User Experience Design Gestures that Delighted a Female User. Medium.com, https://medium.com/startup-grind/google-homevs- alexa-56e26f69ac77 (consulté le 02.09.2018) 

Pariser E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press. 444 RIA. Volume 32 – n° 4/2018 

Pelletier C., Moreau É. M.-F. (2008). L’appropriation des technologies de l’Internet et ses facteurs critiques de succès : un défi de plus pour les PME ? Revue internationale P.M.E : économie et gestion de la petite et moyenne entreprise, vol. 21, 2, pp. 75-117. 

Pestanes P., Gautier B. (2017). Essor des assistants vocaux intelligents : nouveau gadget pour votre salon ou fenêtre d’opportunité pour rebattre les cartes de l’économie du web ?, Wavestone, 2017. 

Pinard R., Potvin P., Rousseau R. (2004). Le choix d’une approche méthodologique mixte de recherche en éducation. Recherches qualitatives, vol.24, pp.58-82. 

Portet F., Vacher M., Rossato S. (2012). Les technologies de la parole et du TALN pour l’assistance à domicile des personnes âgées : un rapide tour d’horizon, Atelier ILADI: Interactions Langagières pour personnes Agées Dans les habitats Intelligents, Grenoble. 

Portolan N., Nael M., Renoullin JL, Naudin S. (1999). Will we speak to our TV remote control in the future? In: Proceedings of the 17th international symposium on human factors in telecommunication, HFT’99, Copenhagen. 

Proulx S. (2002). Trajectoires d’usages des technologies de communication : les formes d’appropriation d’une culture numérique comme enjeu d’une société du savoir. Annales des télécommunications, 57(3-4), 180-189. 

Rapport parlementaire (2017). Pour une intelligence artificielle maîtrisée, utile et démystifiée. Rapporteurs : C. de Ganay & D. Gillot, fait au nom de l’Office parlementaire d’évaluation des choix scientifiques et technologiques. N° 464 tome I (2016-2017), Mars 2017. 

Rasmus D. (2016). Hey Alexa: The Pros and Cons of My Amazon Echo Experience. Iphonelife.com, https://www.iphonelife.com/content/hey-alexa-pros-and-cons-my-amazon -echo-experience (consulté le 02.09.2018) 

Rodin J. (1986). Aging and health: effects of the sense of control. Science, 233(4770):1271- 1276. 

Rouvroy A., Berns T. (2013). Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ?, Réseaux 2013/1 (n° 177), p. 163-196. 

Russel S.J., Norvig P. (2009). Artificial intelligence: a modern approach. Pearson. 

Shackel, B. (1991). Human Factors for Informatics Usability. In B. Shackel & B. Richardson (Eds.), Human Factors (pp. 21-38). Cambridge: Cambridge University Press. 

Soronen, H., Turunen, M., and Hakulinen, J. (2008). Voice Commands in Home Environment - a Consumer Survey. In Proceedings of Interspeech 2008, 2078-2081. 

Stumpf, S. (2015). The role of explanations in interacting with intelligent machines. Seminar. https://www-users.cs.york.ac.uk/alistair/HCISeminars/York_seminar_Nov15.pdf (consulté le 02.09.2018) 

Tisseron S. (2015). Le jour où mon robot m’aimera. Vers l’empathie artificielle.Albin Michel. 

Tual M. (2017). L’intelligence artificielle reproduit aussi le sexisme et le racisme des humains. Le Monde.fr, http://www.lemonde.fr/pixels/article/2017/04/15/quand-lintelligence- artificielle-reproduit-le-sexisme-et-le-racisme-deshumains_5111646_ 4408996.html (consulté le 02.09.2018) 

Turckle S. (2015). Seuls ensemble. Paris, L’Échappée. Éthique et durabilité 445 

Villani C., Schoenauer M., Bonnet Y., Berthet C., Cornut A-C., Levin F. & Rondepierre B. (2018). Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne. Mission parlementaire. https://www.aiforhumanity.fr/pdfs/9782111457089_ Rapport_Villani_accessible.pdf (consulté le 03.09.2018). 

Whitenton K. (2016). Voice Interaction UX: Brave New World...Same Old Story. Nielsen Norman Group.com, https://www.nngroup.com/articles/voice-interaction-ux/ (consulté le 02.09.2018).