Abstract:
¿Es la ética una función computable? ¿Pueden las máquinas aprender ética como los humanos? Si enseñar no consiste más que en programar, adiestrar, adoctrinar… y si la ética no es más que seguir un código de conducta, entonces sí, podemos enseñar ética a las máquinas algorítmicas. Pero si la ética no consiste simplemente en seguir un código de conducta o en imitar el comportamiento de los demás, entonces un enfoque basado en los resultados informáticos, y en la reducción de la ética a la compilación y aplicación de un conjunto de reglas, ya sean a priori o aprendidas, yerra el tiro. Nuestra intención no es resolver el problema técnico de la ética de las máquinas, sino aprender algo sobre la ética humana, y su racionalidad, reflexionando sobre la ética que puede y debe implantarse en las máquinas. Cualquier implementación de la ética de las máquinas tendrá que enfrentarse a una serie de problemas fundamentales o conceptuales, que en última instancia remiten a cuestiones filosóficas, tales como: qué es un ser humano (o más en general, qué es un ser digno); qué es el actuar intencional humano; y cómo se evalúan moralmente las acciones intencionales y sus consecuencias. Estamos convencidos de que una comprensión adecuada de las cuestiones éticas en la IA puede enseñarnos algo valioso sobre nosotros mismos y sobre lo que significa llevar una vida ética libre y responsable, es decir, ser buenas personas más allá de «seguir un código moral». A fin de cuentas, creemos que la racionalidad debe entenderse como algo más que la mera computación, y que la racionalidad de los valores va más allá de los números. Tal comprensión es un paso necesario para recuperar una renovada racionalidad de la ética, urgentemente necesaria en nuestra sociedad altamente tecnificada.
Referencia:
Génova, G., Moreno, V., & González, M. R. (2023). Machine Ethics: Do Androids Dream of Being Good People? Science and Engineering Ethics, 29(2), 10. https://doi.org/10.1007/s11948-023-00433-5