La Inteligencia Artificial (IA) pareció adentrarse en nuestras vidas ofreciendo una manera increíblemente rápida y automatizada de integrar y analizar datos, al mismo tiempo que ofrecía la utilidad de anticipar preferencias y toda una variedad de interfaces para el usuario de diferentes tecnologías de la información.
Sin embargo, hoy en día, la inteligencia artificial se introduce cada vez más en contextos ya no tan neutrales, a saber, la toma decisiones. Las posibles aplicaciones han ingresado, por ejemplo, a la medicina, donde se ocupan sistemas informáticos que son capaces de diagnosticar y además decidir tratamientos para el paciente. En el ámbito judicial, aparece cada vez más la posibilidad de la introducción de inteligencias artificiales para el análisis de datos, jurisprudencia e, incluso, se ha considerado la posibilidad de remplazar al juez humano por un juez de inteligencia artificial.
Sin embargo, la aplicación más sobresaliente de esta toma de decisiones ocurre cuando el MIT (Instituto Tecnológico de Massachusetts) crea la iniciativa llamada Moral Machine. Esta es una plataforma online que ha recolectado millones de respuestas de usuarios a un dilema moral: ¿Qué pasaría si un automóvil sin conductor, conducido automáticamente, se enfrentase a escenarios en éticamente problemáticos? Por ejemplo, en un inminente atropello, sacrificar la vida de una persona para salvar la vida de otros muchos transeúntes. Incluso pueden crearse otros escenarios con sus propios dilemas, y los resultados son recogidos para mostrar las estadísticas de las diversas preferencias morales de distintos grupos humanos. Actualmente se ha cuestionado si, por ejemplo, estos datos han tenido en cuenta las verdaderas inclinaciones de los usuarios.
Sin embargo, quizás lo más sorprendente es que esta aplicación de la inteligencia artificial abre una posibilidad nunca vista: otorgar a las máquinas la posibilidad de la deliberación moral. Esta habilidad, que usualmente consideramos exclusiva del ser humano, nos permite distinguir lo bueno de lo malo, lo incorrecto de lo correcto, lo justo de lo injusto, la virtud del vicio.
Sin embargo ¿Serían las máquinas capaces de verdadera deliberación moral o una emulación de ella? ¿Estamos realmente ofreciéndoles del fruto del conocimiento del bien y el mal? Podemos anticipar consecuencias sociales relevantes para ambos casos:
De ser capaz la máquina capaz de verdadera deliberación moral ¿Sería igual que un ser humano a nivel jurídico y ético, por lo que debería ser incluido como un agente autónomo e incluso con cierta responsabilidad cívica? ¿Sería capaz de asumir culpa y responsabilidad en primer lugar?
En el caso de que la máquina efectúe una mera emulación ¿Sería capaz de emular la misma espontaneidad y novedad que manifiesta ser humano frente al “caso a caso”? ¿Cuál sería el límite que le atribuiríamos a su capacidad de tomar decisiones, más aún cuando son de vida o muerte?
Gabriel Vidal Quiñones
Crédito: Fotogría publicada en sitio el juristaenloquecido
Fuentes:
Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J.-F., & Rahwan, I. (2018). The Moral Machine experiment. Nature, 563(7729), 59-64. https://doi.org/10.1038/s41586-018-0637-6
Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J.-F., & Rahwan, I. (2020). Reply to: Life and death decisions of autonomous vehicles. Nature, 579(7797), E3-E5. https://doi.org/10.1038/s41586-020-1988-3
Hatherley, J. J. (2020). Limits of trust in medical AI. Journal of Medical Ethics, 46(7), 478-481. https://doi.org/10.1136/medethics-2019-105935
Project Overview ‹ Moral Machine. (s. f.). MIT Media Lab. Recuperado 16 de julio de 2020, de https://www.media.mit.edu/projects/moral-machine/overview/
Završnik, A. (2020). Criminal justice, artificial intelligence systems, and human rights. ERA Forum, 20(4), 567-583. https://doi.org/10.1007/s12027-020-00602-0