¿Se pueden fabricar robots que respondan moralmente a dilemas éticos?


La moralidad de los actos que los robots pueden realizar dependerá en gran manera de cómo sus diseñadores y productores entiendan la ética y consecuentemente como los diseñen.

Valorar la moralidad de los actos que los robots puedan realizar es un problema bioético real, que cada vez se hace más urgente resolver. En un reciente artículo, publicado en Science and Engineering Ethics, se trata un aspecto de este tema al valorar las dificultades éticas que se pueden plantear a los expertos en ciencia computacional, inteligencia artificial o robótica, cuando tienen que diseñar y/o construir estas máquinas.

En relación con ello, un aspecto a tener en consideración es que la moralidad de los actos que los robots pueden realizar dependerá en gran manera de cómo sus diseñadores y productores entiendan la ética y consecuentemente como los diseñen.

En general, se pueden presentar dos tipos de problemas. El primero son los derivados de la falta de formación bioética de los propios fabricantes de estas máquinas, que podrían ser evitados dándoles la necesaria formación bioética. El segundo, más difícil de resolver, es el debido a los distintos criterios éticos que pueden existir sobre los actos que realizan los robots, pues no siempre existen soluciones morales aceptadas universalmente.

El artículo concluye que las decisiones éticas referentes a la moral de los robots deberían fundamentarse en evitar todo aquello que es generalmente aceptado como inmoral, de acuerdo a criterios éticos comúnmente admitidos.

Un problema ético similar se puede plantear cuando empiecen a funcionar los coches sin conductor, que de alguna forma son también máquinas robotizadas ¿Cómo sabrán dilucidar estas máquinas cuál es la solución moralmente mejor cuando se les presente un problema ético? Aunque a este tema ya nos hemos referido con anterioridad (ver AQUÍ), lo volvemos a repensar ahora, al hilo de un artículo recientemente aparecido.

En él se concluye que cuando un automóvil sin conductor tenga que elegir entre, por ejemplo, frenar en línea recta en una colisión inevitable o desviarse hacia donde no hay otros automóviles involucrados, el automóvil siempre debería preferir la primera opción. Incluso la existencia de información adicional sobre otros objetos con los que puede colisionar debería ser irrelevante, ya que, en tal situación, cualquier otra opción que tome el coche podría ser peor.

Finalmente, en caso de situaciones más complejas, que podrían involucrar a más vehículos, sería muy conveniente la ayuda de un policía que contribuyera a solucionar el problema, circunstancia que no siempre es factible.

Como se ve las decisiones éticas que las máquinas robotizadas puedan tomar no están ni mucho menos resuelto, por lo que habrá que esperar a que algoritmos más completos puedan ir solucionando estos problemas.

De todas formas, la cosa no parece fácil, ante acciones que no pueden basarse en la libertad de los que tienen que decidir, sobre ello.

Fuente: Observatorio de Bioética.Universidad Católica de Valencia