« Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger », telle est la première des trois lois de la robotique, imaginées en 1942 par l'écrivain de science-fiction Isaac Asimov.
Depuis, l'automatisation a progressé dans un nombre croissant de domaines. Et la science-fiction est entrée de plain-pied dans le champ du réel. Mais pour l'industrie automobile, cette course au progrès bute désormais sur un cruel dilemme : en situation d'accident, les voitures autonomes doivent-elles protéger leur passager ou éviter l'enfant qui traverse la rue ? Pour inculquer cette nouvelle « morale high-tech » aux autos sans pilote, des chercheurs ont interrogé plus de 2 millions d'internautes de 233 pays et testé 40 millions de décisions. Résultat ? Trois grands principes se sont dégagés : protéger l'homme plutôt que l'animal, sauver le plus grand nombre de vies, et en priorité les enfants. De là où vous êtes, M. Asimov, souscrivez-vous à ce que sont devenues vos trois lois de la robotique ?
Des sites de pharmacies visés par des cyberattaques
Chiffre d’affaires
À déclarer uniquement en ligne
Compensation de baisse d'activité : près de 7000 euros par officine
Actualités sociales de l'officine
Les cinq mesures-phares de l’été