La morale est-elle programmable ?
La morale est le produit de l’évolution culturelle, des valeurs sociales, de l’éducation et de l’expérience humaine. Programmer une I.A. pour qu’elle possède une morale semblable à celle des humains est une tâche difficile. Les dilemmes moraux auxquels les êtres humains sont confrontés sont souvent ambigus et difficiles à résoudre. Ce qui est considéré comme moralement acceptable dans une culture peut être parfaitement immoral dans une autre. Bref, les valeurs morales évoluent avec le temps à mesure que la société progresse. Dès lors, comment compter sur un algorithme qui doit prendre des décisions rapides avec parfois des enjeux vitaux ? Quels seront ses tabous ? Quels seront ses biais ? Et jusqu’à quel point pourrons-nous nous fier à son jugement moral ?