Véhicules autonomes

Quelle éthique pour L’intelligence artificielle

Quelle meilleure image que la voiture autonome pour symboliser le débarquement de l’intelligence artificielle dans nos sociétés ? Celle-ci plus rapide, plus efficace, plus sûre que les humains dans nombre de domaine ne cessent de prendre plus de place dans nos vies. Il y a bien sûr lieu de s’en réjouir puisqu’elle augmente notre bien être et notre sécurité. Pourtant, son développement exponentiel questionne car l’intelligence artificielle va certainement être amenée à prendre des décisions de plus en plus complexes qui impliqueront parfois des conséquences graves. Quand on met notre vie entre les mains d’une personne, on ne le fait jamais sans réfléchir. Puisqu’à l’avenir, des choix de l’intelligence artificielle pourront dépendre des vies humaines, il convient d’y réfléchir dès à présent.

Donner une éthique à l’IA?

C’est cette réflexion que nous a présenté JEAN-FRANÇOIS BONNEFON, docteur en psychologie cognitive et directeur de recherche à TSE, à la conférence sur les véhicules autonomes à Futurapolis. Attention, comprenons-nous bien : Il n’est pas ici question de scénario apocalyptique où les machines auraient décidé de l’extermination de l’humanité ! La réflexion ici est plus terre à terre. De manière général, l’intelligence artificielle est là pour assurer notre sécurité et notre bien-être, mais viendra des moments, rares certes, mais il y en aura, où l’IA devra prendre une décision éthique et donc difficilement quantifiable. Comme les IA n’ont pas d’éthique en soi, il faut donc que cette éthique lui soit donnée par l’homme. Mais pour lui donner une éthique, encore faut-il savoir quelle éthique lui donner ? Que souhaiterions nous que l’IA prenne comme décisions dans de telles situations ? Comment lui donner les moyens de prendre ces décisions ?

L’expérience “Moral Machine”

Pour tenter de répondre à cette question, JEAN-FRANÇOIS BONNEFON et d’autres personnes intéressées par ce questionnement ont mis en place la plateforme Moral Machine. Sur cette plateforme nous sommes invités à juger différentes situations de choix moraux. On nous présente à chaque fois une situation où une voiture autonome serait face à un problème technique l’empêchant de ralentir et n’ayant la possibilité qu’entre deux choix différents. Dans chacun des deux choix, des personnes mourront. Ce peut-être des hommes, des femmes, des enfants, des personnes âgées, des personnes athlétiques, des médecins, des femmes enceintes, des personnes en surpoids, des criminels, des sans-abris, des chiens, des chats, traversant la rue ou dans la voiture… De nombreuses situations sont possibles mais à chaque fois, il faut choisir entre deux possibilités entraînant toutes deux la mort d’un des deux groupe.

Se confronter à ces choix peut être plus difficile qu’il n’y parait et permet de faire ressortir nos critères de décisions. Vaut-il mieux tuer trois personnes âgées pour sauver l’enfant et la femme enceinte ? Les deux groupes sont très similaires mais l’un enfreint la loi en traversant au rouge, cela suffit-il pour dire qu’il mérite moins de vivre ? Une fois une série de test terminé, il nous est ensuite possible de voir nos résultats et de les comparer avec les autres utilisateurs.

L’ambition de la plateforme Moral Machine n’est bien entendu pas de donner de réponse définitive à ces questions éthiques, pour ses concepteurs, « Ce site web vise à approfondir cette discussion en fournissant une plateforme pour : 1) construire une image de l’opinion humaine sur la façon avec laquelle les machines doivent prendre des décisions lorsqu’elles sont confrontées à des dilemmes moraux, 2) rassembler et débattre des potentiels scénarios à conséquence morale. »

Si le pragmatisme nous dit de ne pas retarder l’arrivée de l’intelligence artificielle puisque de toute façon elle nous apportera plus de sécurité, ce n’est pas pour autant qu’il faut éluder la question éthique, aussi, pour en savoir plus sur la question des choix moraux des IA, rendez-vous sur : http://moralmachine.mit.edu/hl/fr



My First JavaScript


 

Répondre