¿Lo dije o lo pensé?
La cámara de eco ya no es lo que era. Antes dependía básicamente de con quién hablábamos y qué periódicos o canales veíamos por costumbre. Hoy gran parte de esa selección la hacen las plataformas digitales usando lo que hacemos todo el tiempo: qué miramos, cuánto tiempo nos quedamos en un video, qué pausamos, qué comentamos, qué compartimos o hasta qué nos hace reaccionar al instante.
Nos quedamos5 segundos en un video y la plataforma ya lo tomó como una señal. Los algoritmos están diseñados para aprovecharal máximo el tiempo que pasamos ahí, porque de eso viven. Por eso terminan priorizando el contenido que confirma lo que ya pensamos y el contenido que nos saca una emoción (enojo, indignación, risa, lo que sea). Esa mezcla engancha muchísimo, pero también nos va metiendo en un carril más estrecho simplificando temas complicados y convirtiendo diferencias de opinión en bandos antagonistas.
Con la IA la cosa se pone más interesante.Ya no se trata solo de mostrar contenido; ahora también se puede conversar con un asistente que resume, explica, ordena argumentos y sugiere conclusiones. Esa presentación, por su tono seguro y fluido, puede percibirse como neutralidad. Sin embargo, la respuesta depende del entrenamiento del modelo, de su diseño (si prioriza utilidad, seguridad, complacencia) y del contexto que el usuario aporta. Si el diálogo se alimenta de una sola perspectiva, la herramienta puede reforzarla, aunque no exista una intención explícita de sesgar.
El alcance del análisis de la IA queda condicionado por lo que encuentra disponible en la web. Si, sobre un tema, dato o subpunto hay poca evidencia pública o fuentes verificables, la respuesta estará únicamente basadaen esa información. En esos casos, lo correcto es revisar el contenido con escepticismo y considerar lo que sí está documentado, explicitar la limitación y, si procede, sugerir qué información adicional haría falta para evaluar el punto con mayor rigor.
El riesgo social es perder un marco común de hechos verificables. Si cada persona recibe información distinta, en distinto orden y con distintos énfasis, terminamos discutiendo premisas incompatibles. En ese entorno, la desinformación técnicamente sofisticada (paparruchas, recortes fuera de contexto, pruebas fabricadas) encuentra menos resistencia, porque se dirige a audiencias ya segmentadas por emociones y hábitos de consumo.
La evolución reciente apunta a una hiperpersonalización poco visible, se presenta como conveniencia apuntando justo a lo que le interesa al usuario, lo que desemboca en aislamiento cognitivo, con la sensación de estar informado cuando, en realidad, se está recibiendo un conjunto repetido de confirmaciones y estímulos, alimentando la idea que ya se tiene sin contrastar con otras perspectivas.
La respuesta no es renunciar a la tecnología, es aprender a usarla y tomar conciencia de cómo opera para no perder el control. Eso implica diversificar fuentes, escuchar voces serias que piensan distinto, verificar antes de compartir, buscar piezas completas (no solo fragmentos) y hacer una pausa cuando algo, de pronto, nos provoca indignación o enojo. Si todo lo que consumimos coincide con lo que ya creíamos, no siempre es señal de claridad; suele ser señal de un sistema optimizado para darnos la razón. Y no siempre es porque estemos mejor informados: a veces solo estamos mejor segmentados.