Tamaño letra
A A A
Contraste
B N

photo necklacemy name necklaceget name necklacename necklacepersonalized name necklacecustom name necklacecustom necklacepersonalized necklacesnecklace with namename plate necklace

Actualidad

La trivialización de la ética en los Chatbot

3 de abril de 2023

Recientemente hemos visto un apogeo en el nacimiento de nuevos chatbots, inteligencias artificiales capaces de presentar información elaborada a un usuario a través de un diálogo. Es decir, responden preguntas, ejecutan “reflexiones”, dan recomendaciones, presentan posibilidades, etc. Muchos chatbots pueden ser usados en diversos comercios, ya sea como un chatbot que ofrece ayuda post venta, coordina entregas de productos o que responde dudas sobre servicios. Todas estas posibles aplicaciones y muchas otras han generado un mercado corporativo para estas IA. Esto, naturalmente, ha creado competencia entre los diversos desarrolladores que han estado a cargo de la proliferación masiva de estas IA. 

Dentro de esta competencia, en la que para la mayoría del público parece llevar la batuta ChatGPT, ha sido lanzado un nuevo chatbot, Claude. Los realizadores presentan, de manera esperable, las ventajas que este chatbot tiene sobre los competidores, especialmente el popular ChatGPT. Claude sería mucho menos susceptible a errores, tendría una interfaz mucho más amigable y personalizable y, sobre todo, posee un enfoque en la ética. Esto porque frente a preguntas provocativas o que buscan información para cometer delitos Claude se rehúsa a dar una respuesta o información (y otras restricciones no mencionadas, quizás).

Si bien hay casos en los que parece evidente y razonable programar una inteligencia artificial para que evite ciertas respuestas poco éticas, por ejemplo, dar recomendaciones sobre cómo iniciar un tiroteo, esconder un cadáver, llevar a cabo un delito o incitaciones al odio, existe a la vez un riesgo: reducir a la ética simplemente a una lista de manual.

Existe cierto repertorio de actos y creencias en el que la mayoría estaremos de acuerdo en que son inmorales. Sin embargo, existe también una no menospreciable cantidad de creencias y de actos en los que simplemente no logramos acuerdo sobre su moralidad. Entramos en un terreno gris. Si la ética fuese una cuestión simple, reducible a una cierta cantidad de preceptos de manual, no existirían las grandes polarizaciones ni conflictos políticos, las guerras, los desacuerdos interpersonales y, probablemente, el mundo sería una perfecta utopía. Pero esto evidentemente no es el caso. Hay muchos desacuerdos extremadamente contenciosos en lo moral y cuya respuesta no es simple ni evidente. Muchas veces simplemente no tienen respuesta. Recordemos un clásico dilema moral: ¿Es lícito sacrificar un inocente para salvar a muchos? ¿Desde cuantos salvados es ya lícito matar a un inocente? 

Suponer que la ética es algo de respuesta fácil y que puede programarse a una IA para que de respuestas “éticas”, como quien hace un recetario, cae en el riesgo de trivializar la ética. Y si los dilemas morales que la humanidad enfrenta constantemente son relegados y traspasados tan relajadamente a una herramienta casi omnisciente como parecen ser los chatbots, entonces estamos cayendo en dos peligros extremos, simultáneamente. Por un lado, que una IA que imagina infinitas posibilidades sin restricción esté a cargo de determinar qué es lo ético, una entidad que simplemente computa sin vivir las pasiones y vicisitudes humanas, puede terminar prescribiendo actos con una lógica perfecta y una erudición infinita, pero sin una moral encarnada, sin humanidad. Por otro lado, si simplemente permitimos a desarrolladores de IA introducir sin mucho cuestionamiento ciertas censuras éticas o recomendaciones morales en una herramienta tan poderosa como los chatbots, les estamos dando el poder de una manera extremadamente casual de introducir propaganda, manipulación política o algún programa ético particular que responda a intereses mezquinos o incluso malvados, disfrazados de “ética” orientada hacia el cliente. De preceptos éticos básicos. De decencia corporativa mínima. 

Todas estas especulaciones son solo posibilidades. Pero son potenciales tan cercanos que pueden asirse con las manos. Quizás sea conveniente poner a teclear los dedos en un chatbot como Claude e interrogar por la supuesta ética que le subyace. Quizás los chatbots pueden ser utilizados para ampliar nuestro horizonte de reflexión ética, al mostrar posibilidades conceptuales que nuestra capacidad cognitiva no puede concebir. Pero si simplemente introducimos un mero recetario ético en las IA, solo estamos trivializando la ética y entrando en un terreno extremadamente riesgoso.

 

Gabriel Vidal Quiñones

 

Fuentes:

https://scale.com/blog/chatgpt-vs-claude

https://www.anthropic.com

 

Imagen: https://satincorp.com/chatbot/

 

Suscríbete

Mantente informado, ya somos muchos no te lo pierdas!