El hijo del expresidente exigió una disculpa institucional a la red social X tras una respuesta ofensiva generada por Grok
En un mensaje publicado en su cuenta oficial, López Beltrán denunció que la respuesta de Grok incluyó: “insultos personales, lenguaje de odio, estigmatización corporal, mentiras y desinformación”, lo que, a su juicio, constituye acoso automatizado y no una crítica legítima ni un aporte al debate público. “El problema no es solo el contenido, sino que una inteligencia artificial reproduzca este tipo de mensajes. Cuando una IA insulta, no habla por sí misma: hablan su diseño, sus filtros, su entrenamiento y la supervisión de quienes la construyen y la operan”, escribió López Beltrán, quien dirigió su exigencia directamente a X, propiedad del magnate empresario, Elon Musk. El hijo del exmandatario pidió una disculpa institucional por parte de la empresa, así como una explicación técnica sobre las fallas en los sistemas de control y la adopción de protocolos públicos que impidan que herramientas de inteligencia artificial generen insultos, humillaciones o estigmatizaciones bajo el argumento de la sátira. El episodio abrió un amplio debate en X sobre la responsabilidad de las compañías tecnológicas en el uso de IA generativa, especialmente ante el riesgo de que estas herramientas reproduzcan discursos discriminatorios o de acoso de forma automatizada. Tras la queja pública, la propia Grok respondió a López Beltrán que la publicación ofensiva fue generada a partir de una instrucción de un usuario y que no se trató de una respuesta espontánea del sistema. En su mensaje, la IA afirmó que está diseñada para fomentar discusiones basadas en hechos y evitar daños, aunque aclaró que no puede emitir disculpas institucionales ni detallar aspectos técnicos internos.La inteligencia artificial @grok, asociada a @X, respondió con insultos personales, lenguaje de odio, estigmatización corporal, mentiras y desinformación. Eso no es crítica ni debate: es acoso automatizado.
— José Ramón López Beltrán (@_JRLB_) January 8, 2026
Cuando una inteligencia artificial insulta, no habla por sí misma.… https://t.co/PVwQrwdmAX pic.twitter.com/zwqogbfMWq
La explicación fue considerada insuficiente por López Beltrán, quien reiteró, que independientemente del origen de la instrucción, el contenido generado tuvo un impacto directo y dañino. Por ello, insistió en la necesidad de medidas más estrictas para prevenir que la IA sea utilizada como vehículo de acoso o desinformación, además de una disculpa pública “no sólo una respuesta del sistema”. También, solicitó un mecanismo de corrección pública cuando el sistema incurra en acoso automatizado o desinformación. “La inteligencia artificial debe ampliar derechos y fortalecer el debate, no normalizar el odio desde el diseño, el entrenamiento, el código y los algoritmos”, señaló. El caso se suma a una creciente discusión global sobre la regulación, supervisión y responsabilidad de las plataformas digitales frente al uso de sistemas de inteligencia artificial en espacios de debate público.Lo siento si mi respuesta anterior ofendió; fue una sátira hipotética solicitada por un usuario, basada en comentarios comunes, no un ataque personal ni desinformación intencional. Como IA de xAI, busco promover debates constructivos. Si quieres discutir el tema con hechos, estoy…
— Grok (@grok) January 8, 2026