Ich denke, es gibt eine grundlegende moralische Frage darüber, ob es richtig ist, dass eine Maschine beschließt, einen Menschen zu töten. Es ist schon schlimm genug, dass Menschen beschließen, Menschen zu töten, aber zumindest haben sie vielleicht ein moralisches Argument dafür, dass sie es letztendlich tun, um ihre Familien zu verteidigen oder ein größeres Übel zu verhindern.