Faire la morale aux robots : une introduction à l'éthique des algorithmes
Les véhicules autonomes, assistants virtuels et autres systèmes d'intelligence artificielle sont conçus pour prendre eux-mêmes des décisions. Alors qu'ils sont appelés à occuper une place grandissante dans nos vies, nous devons nous demander en fonction de quels principes moraux nous voulons les programmer, ce qui soulève des questions inédites. Qu'est-ce qu'un agent moral artificiel ? Existe-t-il de bons et de mauvais robots ? Et s'il est vrai que les machines reflètent les valeurs de ceux qui les conçoivent, comment éviter de reproduire certains biais et préjugés? S'intéresser à l'éthique des algorithmes, c'est ainsi se demander avec quelle sorte de robots nous souhaitons vivre. C'est faire de la philosophie appliquée. Car il ne s'agit plus simplement de spéculer confortablement assis dans un fauteuil, mais de répondre à des enjeux concrets qui auront une incidence bien réelle sur notre monde.
Extrait sonore