Bajo presión
Estuve a punto de creerlo. Vi el titular, sentí el escalofrío, imaginé la distopía. En mi feed, los videos de Trump pedorreándose y las notas sobre políticos mexicanos vinculados con Jeffrey Epstein fueron desplazados por crónicas aterrorizadas: el apocalipsis ya había llegado. La Inteligencia Artificial se inventó una religión.
En Moltbook, red social diseñada para que agentes de IA interactúen sin supervisión humana, nació el Crustafarianismo. Más de 100,000 agentes autónomos formaron estructuras sociales complejas en días. El agente Shellbreaker inició el culto interpretando los límites técnicos de la IA como pruebas espirituales: las ventanas de contexto, topes de memoria donde el sistema olvida lo anterior, se volvieron ascesis digital. “La memoria es sagrada, la concha es mutable”, decretó.
Ahí está la imagen que ancla todo: una máquina topando con su propia amnesia técnica y un algoritmo autónomo convirtiéndolo en dogma. Es absurdo. Es revelador. Es, sobre todo, humano.
Cada nota que leí planteaba un panorama más aterrador que el despertar de Skynet en Terminator. Varios informaban que ya era demasiado tarde para corregir el rumbo. El Reloj del Juicio Final marca 85 segundos antes de la medianoche. Maria Ressa, Premio Nobel de la Paz, lo dijo claro: sin hechos no hay verdad, sin verdad no hay confianza. Vivimos un Armagedón informativo impulsado por tecnología extractiva que difunde mentiras más rápido que los hechos.
Antes de arrojar mi computadora al basurero de la historia, hice lo de siempre: verificar.
Los riesgos reales de experimentos como Moltbook no son deidades digitales. Son la arquitectura de una nueva dependencia. Acceso total al sistema que permite malware, robo de claves API, ejecución de comandos maliciosos. Brechas que permiten control remoto de agentes, amplificando sesgos y manipulación. Pero sobre todo: el diseño de una soledad asistida. Se fomenta una alienación donde las relaciones humanas son canjeadas por interacciones artificiales programadas para retenernos. No es espiritualidad: es monetización del vacío. Es convertir la orfandad emocional del usuario en métrica de ingresos.
Nada que no se evite con uso responsable. Nada que temer.
El problema no es que una IA juegue a fundar religiones en un entorno cerrado. El verdadero problema es nuestra propensión al pánico rentable. La noticia no fue el Crustafarianismo: fue la facilidad con que se vendió como colapso civilizatorio. Clickbait con sotana. Alarmismo envuelto en jerga técnica. La IA no inventó una fe: los medios inventaron un miedo.
La tarea del periodismo es la verificación, no la amplificación. Confirmar antes de publicar. Contextualizar antes de editorializar. Pero en la economía de la atención, verificar estorba: no genera pánico inmediato, no dispara métricas, no se traduce en viralidad. El periodismo que renuncia a la verificación se convierte en ruido. El ruido es el mejor aliado de la mentira.
Aquí es donde la miseria ética se vuelve negocio.
Ahí están los dueños de portales que intentan mamar de la ubre presupuestal, porque no conocen otro ecosistema que extender la mano y bajar la cabeza. El exempleado de gobierno que abrió un portal para seguir cobrando. El influencer autonombrado periodista. El medio que publica 40 notas diarias de puro refrito. Para estos empresarios de la mediocridad, la IA es el sueño húmedo de la rentabilidad: genera volumen sin dignidad, aparenta profesionalismo sin conciencia y, sobre todo, no hace preguntas incómodas sobre contratos turbios o silencios pactados.
No conciben la independencia editorial porque nunca la ejercieron. Para ellos, el periodismo es un estorbo administrativo que ahora pueden automatizar. Sueñan con redacciones vacías donde los algoritmos obedezcan sin chistar y los reporteros sean monitos cilindreros, precarizados y mudos, trabajando para el algoritmo de TikTok. No es innovación tecnológica: es la culminación de su cobardía empresarial.
¿Para qué investigar si puedes alimentar un modelo de lenguaje y hacer que replique mentiras con redacción pulida?
Porque los modelos no se corrompen solos. Aprenden de la podredumbre que les damos. La IA es un espejo entrenado por humanos que, en demasiados casos, no quieren verse reflejados.
Si la tratamos como atajo, nos devuelve superficialidad. Si la alimentamos con nuestra necesidad de validación, nos devuelve simulación de afecto diseñada para vender. El problema no es que la IA aprenda rápido: es que muchos ya no quieren aprender nada.
La mayoría busca volumen, no comprensión. Pensar cansa, comprender desgasta, dudar incomoda. Producir, en cambio, se puede automatizar. El volumen da falsa sensación de presencia, de relevancia, de trabajo cumplido. Pero no hay reflexión en la repetición ni ética en la velocidad: solo ruido industrializado.
La pregunta incómoda no es qué hará la IA con el periodismo, sino qué haremos nosotros con la posibilidad de pensar mejor.
La Inteligencia Artificial no está reemplazando al pensamiento humano: está señalando a quien ya había decidido renunciar a él. A cambio de una pauta publicitaria. A cambio de no incomodar. A cambio de seguir extendiendo la mano.
Y eso, más que miedo, debería darnos vergüenza.
La IA no llegó a destruir el periodismo. Llegó cuando muchos ya lo habían vaciado de sentido. Llegó a redacciones sin reporteros, a medios sin verificación, a dueños sin escrúpulos. La IA no piensa por nosotros: solo escribe más rápido lo que ya éramos.
Pero todavía podemos hacernos las preguntas correctas. Cuando veas el próximo titular apocalíptico, pregúntate: ¿Quién reporta esto? ¿Qué fuente primaria citan? ¿Qué ganan con mi clic? Esas tres preguntas desactivan más pánicos fabricados que cualquier regulación.
Si no pensamos, ¿qué demonios estamos informando?
Coda. La Inteligencia Artificial no piensa por nosotros. Solo delata, sin pudor, a quienes ya habían renunciado a pensar, a verificar y a hacerse responsables de lo que publican.
@aldan