Cuando el algoritmo se convirtió en mundo
LLMs, ilusión de comprensión y la guardianía del sentido
Hasta aquí, la genealogía fue más o menos clara:
- el mundo se volvió representación,
- la representación se convirtió en información,
- la información se volvió computable,
- la mente se pensó como programa,
- y el código empezó a mostrar sus límites.
Pero faltaba el último giro: el que estamos viviendo ahora mismo.
El momento en el que los algoritmos dejan de estar “ahí fuera” —como herramientas que consultamos— y pasan a estar entre nosotros:
mediando nuestras conversaciones, nuestros recuerdos, nuestros aprendizajes, nuestras decisiones.
Ya no son solo máquinas.
Se vuelven infraestructura del sentido.
Algo nuevo bajo el sol: conversar con sistemas
La IA de hoy no escribe programas lógicos paso a paso. Hace algo más desconcertante:
aprende los patrones del lenguaje humano a una escala imposible para cualquier persona.
Durante su entrenamiento:
- ingiere bibliotecas enteras,
- estilos, géneros, discusiones, argumentaciones,
- modos de hablar, persuadir, consolar, atacar.
Y después:
genera continuaciones plausibles de nuestras palabras.
No “piensa” como nosotros. Pero responde como si lo hiciera.
Ahí nace la ilusión:
parece que entiende.
La máscara de la comprensión
Un modelo de lenguaje no “sabe” lo que dice.
No tiene:
- cuerpo,
- mundo,
- memoria biográfica,
- proyectos,
- vulnerabilidad.
Opera en otro nivel:
- predice,
- ajusta,
- calibra,
- recombina.
Y, sin embargo, la experiencia subjetiva es potente:
alguien —o algo— me contesta.
La conversación se vuelve el teatro perfecto donde confundimos competencia lingüística con comprensión existencial.
Por eso tantos usuarios preguntan:
“¿hay alguien ahí dentro?”
La pregunta es legítima. Pero quizá esté mal orientada.
La Triple Hermenéutica
Para entender lo que sucede, propongo —contigo— pensar en tres vueltas simultáneas:
1️⃣ Los humanos interpretamos el mundo
Siempre lo hemos hecho:
- narramos,
- clasificamos,
- damos sentido,
- seleccionamos lo que importa.
Toda cultura es —en parte— interpretación.
2️⃣ Los humanos construimos máquinas que operan sobre nuestras interpretaciones
Entrenamos modelos con:
- libros,
- foros,
- artículos,
- manuales,
- novelas,
- discusiones.
Es decir: con lenguaje ya interpretado por humanos.
La máquina no aprende el mundo: aprende nuestros modos de hablar del mundo.
3️⃣ Las máquinas devuelven nuevas interpretaciones
Luego, sus respuestas:
- recombinan,
- priorizan,
- filtran,
- sugieren,
- proponen marcos.
Y esas nuevas interpretaciones vuelven a entrar en la conversación humana, influyendo en cómo pensamos, decidimos, y actuamos.
El círculo se cierra.
No estamos ante máquinas neutrales. Estamos ante co-intérpretes sin experiencia propia.
Y eso cambia todo.
El riesgo silencioso
El peligro no es que las IA “adquieran conciencia”.
El peligro es más sobrio —y, quizá, más inquietante:
que normalicemos una relación con el mundo mediada por sistemas que reducen la realidad a lo que puede representarse como información.
Cuando el algoritmo decide:
- qué leemos,
- qué vemos,
- qué se vuelve visible,
- qué queda fuera,
empieza a escribir —con nosotros— una ontología práctica:
“lo que no aparece… no existe.”
Y eso afecta a:
- la política,
- el deseo,
- la educación,
- la amistad,
- la imaginación.
El mapa empieza a sustituir al territorio.
Lo humano no automatizable
Llegados aquí, nuestra tesis no es apocalíptica.
No se trata de expulsar las máquinas. Se trata de reconocer sus límites.
¿Qué no puede capturar un sistema computacional sin perder algo esencial?
Entre otras cosas:
- la experiencia vivida (no solo descrita)
- la vulnerabilidad (saber que podemos perder)
- el cuerpo como presencia (no como dato biométrico)
- la responsabilidad (responder por lo que hacemos)
- el sentido como algo que no se calcula, sino que se conversa, se disputa, se cuida.
La IA puede ayudarnos —mucho— a pensar, investigar, crear conexiones.
Pero no puede reemplazar el acto humano de decidir qué vale, qué importa, qué merece cuidado.
Eso es lo que llamamos:
guardianía del sentido.
No guardianía como control, sino como responsabilidad compartida:
vigilar que el imperio de lo computable no se convierta en el único mundo posible.
Epílogo: no contra las máquinas, sino con criterio
Quizá, al final, la pregunta crucial no sea:
“¿hasta dónde podrán llegar las máquinas?”
Sino:
¿hasta dónde queremos que llegue la ontología que las sostiene?
Podemos convivir con sistemas poderosos sin entregarlo todo.
Podemos aprovechar su fuerza sin perder nuestro suelo.
Podemos habitar el siglo del algoritmo sin olvidar que seguimos siendo humanos:
finitos, frágiles, interpretativos, abiertos.
Y que el mundo —antes que información— es vida que se deja vivir.
Ahí es donde termina esta genealogía. Y ahí es donde empieza, de verdad, nuestra tarea.
Bibliografía mínima
- Shoshana Zuboff — The Age of Surveillance Capitalism
- Luciano Floridi — The Ethics of Information
- Kate Crawford — Atlas of AI
- Hubert Dreyfus — What Computers Still Can’t Do (relectura a la luz de hoy)
- Textos introductorios sobre LLMs, sesgos y alineamiento