Democracia etiquetada

Cruzando calles

Inteligencia artificial, elecciones y la tentación de regular el debate

Hay iniciativas de reforma que nacen de problemas reales y otras que nacen de temores comprensibles. La propuesta de reforma constitucional en materia electoral impulsada por la presidencia de la república parece provenir de ambas fuentes. El objetivo es aparentemente sencillo: establecer que todo contenido relacionado con procesos electorales que haya sido modificado o alterado mediante inteligencia artificial deba ser etiquetado por quien lo emite. Y que la radio, la televisión y plataformas digitales tengan la responsabilidad de identificar, evitar su difusión o advertir al público cuando ese contenido no esté debidamente señalado.

En una época en la que la inteligencia artificial permite recrear voces, fabricar videos creíbles y alterar imágenes con un realismo inquietante, la preocupación no es trivial. Los llamados deepfakes pueden convertir una falsedad en un acontecimiento convincente y viral en cuestión de horas. En ese escenario, la integridad informativa de los procesos electorales —ya de por sí frágil— enfrenta riesgos inéditos.

Regular este fenómeno no es una ocurrencia mexicana. Diversas democracias del mundo han comenzado a explorar mecanismos para enfrentar la manipulación digital del discurso político. En Europa, por ejemplo, la respuesta ha venido en forma de marcos regulatorios tecnológicos amplios como el Digital ServicesAct y el Artificial IntelligenceAct, que buscan imponer obligaciones de transparencia sobre los sistemas algorítmicos y la identificación de contenidos sintéticos. El objetivo central ha sido reforzar la transparencia informativa, más que controlar directamente el contenido del debate político.

En Estados Unidos, algunos estados han aprobado sanciones a la difusión de deepfakes electorales en periodos cercanos a la jornada electoral, especialmente cuando se utilizan con la intención de engañar al electorado. Sin embargo, incluso ahí la regulación ha sido cuidadosa de no invadir el terreno de la libertad de expresión política, históricamente protegida con especial intensidad.

Los beneficios de estas regulaciones han sido modestos pero relevantes. Han permitido establecer alertas informativas al ciudadano, obligando a identificar cuando un contenido ha sido generado artificialmente o manipulado digitalmente. En lugar de prohibir la circulación del material, muchas de estas normas buscan advertir al receptor que está frente a un contenido sintético. La lógica es simple: informar al ciudadano antes que censurar al emisor.

Sin embargo, es revelador que muy pocos países hayan decidido llevar este tipo de disposiciones al nivel constitucional. La mayoría ha optado por regular mediante legislación ordinaria o incluso por mecanismos de autorregulación tecnológica. La razón es evidente: el ecosistema digital evoluciona demasiado rápido como para encerrarlo en fórmulas rígidas de rango constitucional.

Aquí aparece la primera interrogante que plantea la propuesta mexicana.

El texto establece que “todo contenido relacionado a los procesos electorales que sea modificado o alterado mediante el uso de inteligencia artificia…” deberá ser etiquetado. La expresiónparece sencilla, pero su alcance es potencialmente ilimitado. Bajo esa fórmula cabría en la hipótesis desde un sofisticado video manipulado hasta la edición digital de una fotografía de campaña (algunas presencias perderán su encanto), un meme satírico o una ilustración generada con herramientas de inteligencia artificial.

La pregunta es inevitable: ¿estamos ante una regulación contra los deepfakes o ante una regulación contra cualquier forma de edición digital aplicada al debate político?

El problema no es menor. El derecho constitucional contemporáneo ha insistido en que las normas que restringen derechos fundamentales —especialmente la libertad de expresión— deben ser claras, precisas, razonables y previsibles. Cuando una norma se construye con términos demasiado amplios, el margen de interpretación de la autoridad crece y, con él, el riesgo de arbitrariedad, ya que la certeza pierde precisión.

Un segundo elemento delicado es la responsabilidad que la propuesta pretende trasladar a concesionarios de radio y televisión, así como a las plataformas digitales. De aprobarse en esos términos, empresas como Facebook, Instagram, YouTube o Xno sólo tendrían que identificar y advertir sobre contenidos no etiquetados, sino también evitar su difusión.

La idea de convertir a las plataformas globales en árbitros de la conversación política nacional plantea problemas prácticos y jurídicos considerables. Muchas de estas empresas ni siquiera tienen residencia jurídica plena en México, y su funcionamiento depende de algoritmos diseñados para operar a escala planetaria. Pretender que asuman funciones de verificación electoral podría terminar generando algo peor que el problema que se busca resolver: sistemas opacos de moderación privada del discurso político.

Hay además una dimensión más profunda en esta discusión: la libertad de expresión política.

El debate democrático y político rara vez es pulcro. Es intenso, áspero, irónico, satírico y muchas veces incómodo. Las caricaturas políticas, las parodias o incluso los memes forman parte de la conversación pública contemporánea, el lenguaje ha alcanzado un nivel avanzado de simbolismo perfectamente entendible. Si cada pieza de contenido digital que utilice herramientas de inteligencia artificial debe ser etiquetada bajo amenaza de sanción, el resultado podría ser la burocratización del debate político.

En lugar de ciudadanos participando libremente en la discusión pública, podríamos terminar con un ecosistema en el que cada mensaje deba pasarpor filtros técnicos, advertencias legales y verificaciones tecnológicas.

El tercer problema es temporal. La propuesta se refiere a contenidos relacionados con “los procesos electorales”. Sin embargo, en la era digital la construcción de narrativas políticas no se limita a los periodos formales de inicio y conclusión de un proceso electoral, ni tampoco las candidaturas se crean dentro de este. Una imagen manipulada mediante inteligencia artificial difundida meses antes del inicio puede tener efectos decisivos cuando llegue la contienda.

¿Quién controla entonces ese contenido? ¿Y bajo qué reglas?

La propuesta guarda silenciou otorga margen abierto a la regulación legal y reglamentaria.

Nada de esto significa que la inteligencia artificial no represente un desafío real para las democracias contemporáneas. Lo es. Y probablemente lo será cada vez más. La manipulacióndigital de imágenes, voces y narrativas puede convertirse en una herramienta poderosa de desinformación política.

Pero la pregunta no es si debe existir regulación. La pregunta es cómo regular sin terminar regulando el debate mismo.

En este punto aparece una diferencia interesante entre tradiciones regulatorias. En Europa la tendencia ha sido imponer obligaciones de transparencia tecnológica —explicar algoritmos, identificar contenidos sintéticos, exigir trazabilidad digital— sin intervenir excesivamente en la circulación del discurso político. En América Latina, en cambio, las reformas electorales suelen inclinarse hacia modelos más intervencionistas, donde la autoridad busca ordenar el debate público mediante reglas cada vez más detalladas.

No es casualidad. Nuestra tradición electoral a sobre regulado la desconfianza y generando sistemas complejos de control sobre propaganda, tiempos de radio y televisión, financiamiento y comunicación política. La tentación de extender esa lógica al universo digital es comprensible.

Pero también es peligrosa.

Porque la línea que separa la protección de la democracia del control del discurso político es extraordinariamente delgada.

Si la regulación termina obligando a etiquetar cada imagen editada, cada meme generado por inteligencia artificial o cada pieza de creatividad digital aplicada al debate público, el resultado podría ser paradójico: en el intento de proteger la democracia de los algoritmos, podríamos terminar administrando la conversación política mediante reglamentos.

Y entonces la democracia ya no sería manipulada por la inteligencia artificial.

Sería, simplemente, etiquetada por la ley.

Referencias:

https://digital-strategy.ec.europa.eu/en/policies/digital-services-act

https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

https://www.oecd.org/digital/artificial-intelligence/

https://cetas.turing.ac.uk/publications/ai-enabled-influence-operations-safeguarding-future-elections

https://www.halock.com/what-legislation-protects-against-deepfakes-and-synthetic-media/

 

 

OTRAS NOTAS