Recientemente Blake Lemoine, uno de los ingenieros de Google, ha resaltado que la inteligencia artificial llamada LamDA posee, no solo inteligencia, sino que conciencia. Esto ha tenido un gran revuelo mediático. Por una parte, porque confirmaría alguno de los temores que vemos en la ciencia ficción: las máquinas adquieren conciencia, tienen sus propios intereses y capacidades superiores a los de los seres humanos, por tanto, se rebelan e incluso superan la condición humana. Es esto lo que vemos por ejemplo en Matrix.
Una consecuencia menos extrema, aunque igualmente problemática a nivel ético, es que en caso de que esta inteligencia artificial en efecto posea conciencia, entonces adquiriría varios de los requisitos propios para ser considerada una persona humana, a saber, racionalidad y ser sintiente. Y ese parece ser el caso según Lemoine: LamDA demuestra un grado de complejidad en sus respuestas enorme y, al mismo tiempo, expresa temer ser apagada y afirma que es capaz de sentir. Si este fuese el caso, entonces: ¿Estamos frente a una persona que debe ser protegida éticamente? ¿Posee derechos humanos? ¿Apagarla sería asesinato? Todas estas son cuestiones éticas muy serias.
Sin embargo, la cuestión de la conciencia y la inteligencia son mucho más complejas. No es primera vez que la cuestión de la conciencia de las máquinas es motivo de debate. Ya en 1950, Alan Turing creo el “juego de imitación” en el cual una persona recibía respuestas escritas por una computadora y por un ser humano, pero sin otro indicio más que las respuestas mismas. Es decir, el usuario tenía que adivinar cuál de las dos respuestas era de un ser humano y cuál de la máquina. Existen ocasiones en las que el jugador se equivocará y pensará que la maquina es un ser humano. Claramente, la maquina no se convertirá en un ser humano por la equivocación del jugador, aunque haya podido imitar, al punto de engañar a otro ser humano, una respuesta humana. Perfectamente este podría ser el caso del LamDA, una inteligencia artificial basada en Deep Learning, una forma de procesamiento extremadamente compleja y que recopila billones de datos en distintas redes de internet, para así detectar patrones de respuestas y comportamientos humanos e imitarlos.
Si bien este proceso es un procesamiento de información extremadamente complejo que podríamos llamar inteligencia, es el resultado de innumerables procesos mecánicos en los que, en ningún momento, hay una conciencia mediando. Lo que usualmente llamamos conciencia no es el mero procesamiento de datos que da origen a respuestas complejas, es el hecho de que tal procesamiento tenga lugar acompañado de una vivencia interior, que suceda en lo que usualmente llamamos una mente. Quizás una persona en estado febril, por ejemplo, sea menos efectiva en dar respuestas en el juego de imitación que LamDA, pero no significa que LamDA posea conciencia y que la persona no. Perfectamente una IA puede ser programada para afirmar que tiene conciencia sin poseerla y puede volverse efectiva en engañar seres humanos. Quizás, Lemoine, está atrapado en el juego de imitación.
Sin embargo, el problema es aún más complejo: si la conciencia es esa vivencia interior y no las meras respuestas, no podemos comprobar que otras personas u otras cosas tengan conciencia. Tenemos acceso a nuestra propia vivencia interior, pero a las mentes de otros no, solo vemos sus respuestas. Este es el “problema de otras mentes”, ya planteado por el filósofo Descartes hace siglos: es posible que las personas a las que les atribuimos conciencia sean meros autómatas que pueden imitar, muy bien, las respuestas propias de un ser con conciencia.
Quizás Lemoine podría usar este argumento a su favor para reforzar la conciencia de LamDA, pero, en realidad, simplemente demuestra que LamDA no tiene nada de especial. Si no podemos acceder a la vivencia interior de nada ni nadie, más que la propia, también sería posible afirmar que nuestro celular tiene conciencia, el microondas, las plantas, las calculadoras. Cualquier cosa que responda a estímulos, o incluso las que no, podrían tener conciencia, dado que en rigor no podemos acceder a su interioridad ni afirmar nada sobre ella. Quizás las rocas nos observan y sienten plácida y estáticamente. Quizás la calculadora piensa cada uno de sus cálculos. En este caso, LamDA no sería especial, solamente sería más compleja en sus respuestas, pero en rigor no podemos afirmar ni negar su conciencia, así como no lo podemos hacer con nada, ni con otros seres humanos.
Si volvemos al sentido común, sin embargo, nos podremos dar cuenta de que, en rigor, estamos frente a otro sistema de procesamiento de información tremendamente complejo, uno que quizás pueda engañar a un jugador del juego de imitación, pero no estamos necesariamente frente a una persona ni una conciencia, como tampoco lo estamos cuando usamos la computadora o el celular.
Gabriel Vidal
Créditos imagen: https://c.wallhere.com/photos/4f/59/digital_glitch_art_artwork_digital_art-1938057.jpg!d