Standaard Boekhandel gebruikt cookies en gelijkaardige technologieën om de website goed te laten werken en je een betere surfervaring te bezorgen.
Hieronder kan je kiezen welke cookies je wilt inschakelen:
Technische en functionele cookies
Deze cookies zijn essentieel om de website goed te laten functioneren, en laten je toe om bijvoorbeeld in te loggen. Je kan deze cookies niet uitschakelen.
Analytische cookies
Deze cookies verzamelen anonieme informatie over het gebruik van onze website. Op die manier kunnen we de website beter afstemmen op de behoeften van de gebruikers.
Marketingcookies
Deze cookies delen je gedrag op onze website met externe partijen, zodat je op externe platformen relevantere advertenties van Standaard Boekhandel te zien krijgt.
Je kan maximaal 250 producten tegelijk aan je winkelmandje toevoegen. Verwijdere enkele producten uit je winkelmandje, of splits je bestelling op in meerdere bestellingen.
« Robots tueurs », le terme est à la mode mais il fausse d’emblée toute réflexion sur le sujet. Car ce seront des robots soldats qui combattront peut-être dans le futur, non des exterminateurs de la race humaine. Or, qui dit soldat dit faiblesses et vertus au combat. Pour que ces machines soient moralement acceptables, il faut donc qu’elles puissent agir au moins aussi bien qu’un soldat humain, qu’elles puissent « raisonner » d’elles-mêmes sur le plan moral. En d’autres termes, ces robots doivent être dotés d’une éthique artificielle.
Brice Erbland analyse la psychologie humaine au combat afin de mieux proposer ce que pourrait être la programmation d’une éthique artificielle pour les futurs robots de combat. Une approche originale qui n’est ni celle d’un philosophe, ni celle d’un roboticien, mais celle d’un soldat.