Una máquina no puede tener libre albedrío, porque no puede pensar. Puede calcular, pero eso no es pensar. carece de consciencia, por lo tanto desconoce lo que es el bien y el mal... tú a lo sumo podrías programar que debe entender un programa por bien y mal, incluso puedes programar que cambie, que no tenga fijo la entrada que tu le diste, pero jamás lo hará por mediación de consciencia de la que carece. ...y siempre será incorrecto, porque cada cual tendremos un juicio algo ligeramente distinto de lo que está bien y mal (es decir si no nos ponemos de acuerdo en ciertas cuestiones, un programa para una máquina implica que porta las 'ideas específicas' de alguien y que el resto tiene que tragar con ellas como si fueran las 'correctas').
Es algo raro que hables de bien y mal como algo del propio individuo y de la consciencia cuando no son mas que una mera convencion social, que implica comportamiento dentro del grupo. Ni tu ni yo decidimos realmente lo que eticamente esta bien o mal, es más bien el entorno quien lo dictamina.
Una máquina no tiene por que llevar las ideas de nadie programadas. Las redes neuronales y los algoritmos evolutivos permiten un nivel de autonomia de aprendizaje brutales. Precisamente el gran problema de las redes neuronales es ese. Que en general se ha construido una forma de generalización de la solucion a un problema que no somos capaces de explicar. Por ello no se sabe la respuesta del sistema ante otras entradas que no sean las que se han probado.
Mayormente si imitamos el funcionamiento del cerebro, imitando sus entradas y salidas, y generando el mismo numero de neuronas que tiene un ser humano ¿Que tiene el humano que no tenga la maquina?