Kunstmatige intelligentie is er nog lang niet (zeggen ze) maar er wordt hard aan gewerkt. Het is al wel tijd om te denken aan de ethiek bij machines die beslissingen nemen. In zekere mate zijn die er namelijk al, bijvoorbeeld in robotschutters van Samsung of zelfrijdende auto's die bijvoorbeeld moeten beslissen bij een noodmanouevre tussen tegen botsen tegen een paal of tegen een overstekend kind.

Een door Elon Musk gesteund onderzoeksinstituut (FLI) pompt geld in allerlei AI-projecten, waaronder eentje die zich richt op rationele beslissingen in complexe situaties. Het doel van het instituut is om ethiek vooral niet uit het oog te verliezen bij AI-ontwikkeling. Musk stelde eerder al te investeren in AI, juist om een oogje in het zeil te houden en een Skynet-scenario te voorkomen.

Voor de verandering een mooi citaat uit het persbericht van FLI komt van Jaan Tallinn, oprichter van Skype en nu onderdeel van het instituut: "Bouwen aan geavanceerde AI is als het lanceren van een raket. Je eerste uitdaging is om accelleratie te maximaliseren, maar als het eenmaal op gang komt, moet je je richten op de besturing."

Geen waterdicht plan, maar een goed begin:
  • Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
  • Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
  • Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.