De makers hebben geleerd van Asimovs wetten en leren robots opdrachten van mensen weigeren als de eis leidt tot een functionele tegenstrijdigheid. Dat gaat overigens nu nog niet om ethiek, maar in een voorbeeld van de Tuft University wordt een robot opgedragen een pad af te leggen die zou leiden tot schade. Hij vraagt zich na een opdracht af of hij dit kan, of hij dit moet en vervolgens of het in strijd is met een functioneel principe.

Onheil voor mensheid?

De robot gaat dus verder dan alleen analyseren hoe hij iets moet uitvoeren, maar bekijkt ook of hij iets zou moeten uitvoeren. Het is een rudimentaire opzet, maar het voorkomt in de toekomst incidenten zoals de eerste robotdoodslag (al in 1979) toen een mechanische arm een werknemer verpletterde. Maar het geeft machines ook meer beoordelend vermogen en dat kan natuurlijk ellende veroorzaken.

Roboticadeskundige Even Ackerman schrijft op IEEE Spectrum: "Zetten we een gevaarlijk precedent dat onheil kan betekenen voor de mensheid? Ja, misschien. Maar het is niet realistisch om te verwachten dat robots onvoorwaardelijk opdrachten accepteren van alle mensen die ze tegenkomen. Als we dat probeerden met computers en software zou dat leiden tot een destructieve rotzooi en het is niet anders voor de toekomst van robotica."