La hora de la tecnoética
Desde hace unos años, los impactos transformadores de la inteligencia artificial, tanto en las operaciones como en la competitividad, se hacen sentir como una ola de choque a través de las múltiples industrias.
La elaboración de un marco ético para el desarrollo de la inteligencia artificial es una mayor consideración, tanto para los editores de la inteligencia artificial como para las empresas que la utilizan. Esto afecta desde las compañías de seguro que realizan análisis de riesgos, hasta las empresas de seguridad que utilizan robots de vigilancia y sensores inteligentes. La cuestión de la ética de la inteligencia artificial es inédita, pero del todo pertinente en el mundo contemporáneo. Es necesario distinguir las tecnologías RPA (robotic process automation), es decir, la automatización de los procesos mediante la robótica, de los robots con capacidad de aprendizaje autónomo, más conocidos como “machine learning”.
En los primeros, cada gesto realizado por la máquina ha sido programado, previamente, por un ser humano, mientras que los segundos disponen de capacidades de aprendizaje autónomo y supervisado que les permite realizar operaciones de las que ellos son los autores. El contexto de aplicación de la ética en el campo de la inteligencia artificial no puede limitarse solo a la fase de desarrollo del sistema, sino que debe acompañarlo a lo largo de su ciclo de vida. Esto significa que es necesario dibujar un marco ético para el desarrollo de estas máquinas que aprenden y someterlas a evaluaciones periódicas para controlar sus performances. Un robot de seguridad que tuviera un sesgo de aprendizaje podría malinterpretar un comportamiento y reaccionar de forma equivocada.
Introducir la reflexión ética en este dominio no debe interpretarse como una censura a la libertad creativa, ni como un obstáculo al crecimiento del mercado, sino justo al contrario, como un ingrediente que genera confianza en el potencial usuario. El hecho de que un artefacto dotado de inteligencia artificial haya sido evaluado por un comité de ética independiente e interdisciplinar antes de su comercialización es un argumento que da competencia y seguridad. Pero la trazabilidad, para ser realmente digna de confianza, debe ser necesariamente exógena.
Cinco principios fundamentales
A pesar de la falta de consenso, se observa cierta convergencia en torno a cinco principios fundamentales que se encuentran en la citada declaración:
- La transparencia y la inteligibilidad. Las decisiones deben ser justificables e inteligibles para todos. La justificación radica en explicar los factores y parámetros más importantes de la decisión y debe ser similar a la que pediríamos a un ser humano.
- La equidad. Las máquinas deben ser diseñadas y entrenadas para que no creen ni refuercen discriminaciones de ningún tipo entre los seres humanos.
- La seguridad. Las máquinas inteligentes deben satisfacer criterios rigurosos de fiabilidad, seguridad e integridad, a fin de no causar ningún daño a nadie o ponerlo inútilmente en peligro.
- La responsabilidad. El desarrollo y la utilización de las máquinas inteligentes no puede conducir a una carencia de responsabilidad por parte de los seres humanos cuando una decisión ha sido tomada.
- La protección de la vida privada. Las máquinas inteligentes deben respetar la vida privada como un valor fundamental y un derecho a proteger en todo momento.
Más allá de la adopción de reglas de ética de la tecnología, el desarrollo responsable de la inteligencia artificial pasa, igualmente, por la atención en virtud del contexto en el que esta se desarrolla. Existe el riesgo de que herede y perpetúe los prejuicios del equipo del proyecto. Una forma de evitar este riesgo es que el equipo diseñador esté integrado por perfiles disciplinarios y trayectorias biográficas distintas y variadas también desde el punto de vista profesional. Esta diversidad de orígenes, experiencias y procedencias académicas puede salvar de la caída en un prejuicio o en un tópico, en la medida en que los propios miembros pueden neutralizarlo.
Existe el riesgo de que herede y perpetúe los prejuicios del equipo del proyecto