Ética de la robótica
Los robots no son humanos. La responsabilidad ética no puede delegarse en los robots. Urge un equilibrio ético entre la finalidad del robot y las consecuencias que pueda acarrear su uso.
La dignidad es intrínseca al ser humano, pero no a las máquinas ni a los robots. No es posible equiparar a robots con seres humanos, incluso en el caso de los robots androides que tengan el aspecto seductor de un ser humano o de poderosos robots cognitivos con capacidades de aprendizaje superiores a las de los seres humanos. Los robots no son humanos. Son un producto de la creatividad humana y, por eficaces y efectivos que sean, necesitan un sistema de soporte técnico y una evaluación ética. El reconocimiento de la dignidad humana implica que la autonomía, como valor, no solo afecta al respeto a la autonomía individual. Expresa, a su vez, el reconocimiento de la interdependencia de las relaciones entre seres humanos, entre seres humanos y animales y entre seres humanos y medioambiente. ¿Hasta qué punto los robots sociales pueden enriquecer estas relaciones o reducirlas y estandarizarlas? Es necesario evaluarlo científicamente en el contexto de prácticas médicas y educativas donde se puedan utilizar robots, en particular cuando se trata de grupos vulnerables como niños y ancianos. El uso sistemático de robots podría empeorar la ruptura de los lazos sociales en algunas sociedades.
Se han introducido varios sistemas y regulaciones de protección en muchos países para limitar el acceso a sus datos personales y proteger la privacidad de las personas. Sin embargo, el desarrollo de datos masivos está cambiando la forma en que se recopilan y procesan los datos (uso de algoritmos de perfiles). La escala de prácticas de recogida y procesamiento aumenta enormemente y el uso de datos también (por ejemplo, en los campos del comercio, seguridad, vigilancia pública e investigación), así como las formas de intrusión. Los robots son dispositivos que pueden recopilar datos a través de sensores y extraer grandes datos mediante un profundo aprendizaje. Por tanto, la recopilación y uso de datos son aspectos que deben examinarse de cerca en el diseño de robots, equilibrando la finalidad del robot con la protección de la privacidad de las personas. El principio de inocuidad designa la línea roja que los robots no deberían cruzar. Como muchas tecnologías, los robots tienen potencialmente un “doble uso”. Generalmente están diseñados con un propósito útil o positivo (por ejemplo, reducir los riesgos en el puesto de trabajo), para ayudar a los seres humanos y no perjudicarlos ni perjudicar sus vidas.
El principio de inocuidad designa la línea roja que los robots no deberían cruzar
Principio de precaución
La responsabilidad ética no puede delegarse en los robots. Ni los robots deterministas ni los robots cognitivos sofisticados pueden asumir ninguna responsabilidad ética. Esta responsabilidad corresponde al diseñador, al fabricante, al vendedor, al usuario y al Estado. Los seres humanos, por tanto, deben tener la posibilidad de controlar un robot por diferentes medios (trazabilidad, interruptor automático), a fin de mantener la responsabilidad humana moral y legalmente.
La aplicación del principio de precaución refuerza la necesidad de un control sistemático y estudios empíricos que impliquen una amplia gama de disciplinas científicas. Este principio es particularmente relevante en lo que se refiere al desarrollo de robots autónomos (robots cognitivos), dotados de capacidades de aprendizaje profundo y de los que determinados procesos de comportamiento o de toma de decisiones no se pueden programar al igual que para los robots deterministas. Los robots son útiles para mejorar la seguridad, la eficiencia y el rendimiento en la realización de muchas tareas humanas físicamente difíciles. Se pueden utilizar robots industriales, robots de investigación de desastres y robots de detección de imagen para sustituir a los seres humanos en entornos peligrosos. Sin embargo, es necesario discutir la cuestión de la beneficencia de los robots diseñados para intervenir en un contexto social como la educación, la atención sanitaria, la vigilancia o la policía estatal.

