Si una máquina pudiera anticipar tu próxima decisión con alarmante precisión —qué dirás, qué comprarás, a quién escribirás—, ¿seguirías creyendo que elegiste “libremente”?
Esa es la incomodidad que plantea un estudio reciente: usar la potencia de la inteligencia artificial (IA) para detectar patrones ocultos en nuestro comportamiento y, luego, apoyarse en la psicología cognitiva para entender por qué esos patrones aparecen. La propuesta es provocadora porque sacude dos certezas cómodas: que somos menos previsibles de lo que creemos y que las máquinas “no entienden” a las personas. ¿Y si lo que llamamos intuición, costumbre o simple capricho fuera, en realidad, una coreografía repetible que un algoritmo puede aprender?
depp learning predict funtion h…
Un experimento con cuatro puertas
Para examinar esa idea, los investigadores usaron un juego simple: cuatro puertas que dan puntos y van cambiando de “generosidad” con el tiempo. Con las elecciones de cientos de personas, compararon tres formas de “adivinar” cuál sería la próxima puerta elegida, combinando modelos de inteligencia artificial (redes neuronales) con un modelo clásico de la psicología.
La primera forma fue un modelo explorador basado en una red neuronal llamada LSTM. Imagina esta IA como un observador atento a tus últimas cuatro jugadas y premios: con esa mini-historia reciente infiere tu siguiente movimiento, tal como haría un amigo que nota si repites cuando te va bien o cambias cuando te va mal. Solo con esa ventana corta, la red acertó alrededor de 72 de cada 100 veces.
La segunda forma no es una red neuronal, sino un modelo psicológico clásico (Q-learning) que sigue una regla muy intuitiva: elegimos donde creemos que habrá más premio. Va actualizando, paso a paso, qué puerta “promete” más según lo que ha rendido antes, y se queda con la mejor expectativa. Es directo y transparente, y alcanzó cerca de 68 aciertos por cada 100.
La tercera fue otra red neuronal (LSTM) “ciega a la recompensa”. Aquí los premios se ignoran a propósito: la IA mira solo la secuencia de tus elecciones —repetir la misma puerta, alternar dos, recorrer las cuatro en orden— como si siguiera el “ritmo” de tus dedos. Aun sin ver los premios, logró alrededor de 70 aciertos por cada 100, señal de que muchas decisiones siguen patrones o hábitos que se pueden anticipar.
¿Qué nos deja esta comparación?
Cuando una puerta es claramente mejor, solemos explotarla y el enfoque de “ir por la mayor recompensa” funciona muy bien; en esos momentos, la red exploradora se comporta parecido al modelo clásico. Pero cuando todas las puertas se parecen y manda la incertidumbre, afloran las rutinas: repetimos secuencias o alternamos opciones. Ahí la red exploradora se acerca más a la red “ciega a la recompensa”. En pocas palabras: no elegimos solo por premios ni al azar; mezclamos utilidad y hábito. Precisamente porque combina ambas pistas —lo que pagó y lo que venías haciendo—, la IA exploradora fue la que más acertó.
depp learning predict funtion h…
Hallazgos clave: la mente humana no es solo “racional”
El resultado más llamativo no es solo que la red neuronal fue la más precisa, sino cómo lo logró: fusionó lo mejor de los otros dos enfoques. Cuando había una opción claramente superior, actuó como el modelo orientado a la recompensa. En cambio, en momentos de incertidumbre —cuando las opciones eran similares—, se pareció al modelo “ciego a la recompensa”, capturando hábitos, repeticiones y patrones.
La lección es clara: muchas elecciones que a primera vista parecen “caprichosas” o “aleatorias” no lo son. Responden a regularidades que los modelos clásicos no capturan del todo, pero que una red neuronal bien entrenada sí puede detectar. Ahora bien, esa potencia tiene una cara menos cómoda: la IA funciona como “caja negra”; acierta, pero no siempre explica por qué acierta. Ahí entran los modelos psicológicos, que actúan como traductores para darle sentido a lo que la máquina descubre y encajar esos hallazgos en un marco comprensible sobre cómo aprendemos y decidimos.
Implicaciones del estudio
Psicología y neurociencia.
El trabajo invita a revisar la etiqueta de “decisiones aleatorias”. Muchas veces, bajo la duda, exploramos siguiendo patrones repetibles. Entender esa mezcla de búsqueda de recompensa y hábito puede afinar teorías sobre aprendizaje, exploración y formación de rutinas.
Salud mental.
Metodologías parecidas podrían ayudar a detectar perfiles de decisión en distintos trastornos (por ejemplo, variaciones en cómo se explora o se repite un patrón), aportando pistas para el diagnóstico y para ajustar intervenciones que modifiquen hábitos desadaptativos.
Tecnología y vida cotidiana.
Comprender cómo decidimos en la incertidumbre puede servir para diseñar aplicaciones, entornos y políticas que favorezcan elecciones más saludables y productivas (por ejemplo, reduciendo fricciones cuando una opción es claramente beneficiosa, o interrumpiendo patrones nocivos cuando todas las alternativas parecen iguales).
Conclusión: volver a la pregunta incómoda
Volvamos al inicio: si una máquina puede anticipar con bastante acierto lo que harás después, ¿queda espacio para la libertad? La respuesta que sugiere este estudio no es un “sí” o “no” tajante, sino un matiz: somos, a la vez, previsibles y libres. Previsibles porque repetimos patrones —sobre todo cuando dudamos—, y libres porque podemos reconocer esas rutinas y cambiarlas cuando una razón mejor aparece. La IA, lejos de dictarnos qué hacer, nos ofrece un espejo incómodo: revela la coreografía que ejecutamos sin darnos cuenta. El reto —humano— es mirar ese espejo con honestidad y decidir cuándo seguir el paso… y cuándo romperlo.
Por:
Profesor Titular
Facultad de Ciencias Biológicas UC