¿Qué pasa con mi algoritmo?
Con el cierre del 2025 damos la bienvenida a un año electoral decisivo en la capital, dividida entre nuevos liderazgos opositores y el lastre de gestiones anteriores, marcadas por escándalos. En este contexto, una pregunta se vuelve ineludible: ¿Cómo están moldeando las IA nuestra democracia? Para responderla, presentamos la tercera entrega de ¿Qué pasa con mi algoritmo?, investigación que se enfoca en el impacto de las nuevas tecnologías en la vida cotidiana y el espacio público.
Por Laura Ruiz Díaz. Ilustración: Camila Jara Piccardo (@camijpy).
Dos personas buscan “candidato X” en la misma red social. Una de ellas ve en su feed un despliegue de discursos pulidos y propuestas de políticas públicas. La otra solo recibe un aluvión de noticias sobre escándalos. ¿Por qué? Un algoritmo, financiado de manera opaca, decidió qué versión de la realidad merecía ver cada quien.
¿Cómo funciona? Los algoritmos son el motor que impulsa las plataformas digitales. Su objetivo principal es maximizar tu tiempo en pantalla, y lo hacen mediante las recomendaciones personalizadas, la publicidad ultrasegmentada y la automatización. Analizan tus datos para predecir tus preferencias, los mismos que pueden ser utilizados en campañas electorales.
Al mismo tiempo, en otra red social, un usuario ve un video de su candidata favorita admitiendo un fraude. Su voz es inconfundible, aunque quizás el tono y los modismos falten. Pero es falso, un deepfake creado en minutos con la IA de moda.
No todo es lo que parece
No es la primera vez que escribimos sobre el tema. Los deepfakes son materiales de contenido falso —generalmente videos o audios—, pero hiperrealistas. Los dos más peligrosos son las deepfaces, es decir, la manipulación de rostros para suplantar identidades, y las deepvoices, la clonación de voces para declaraciones falsas.
Uno de los casos más conocidos fue el del reconocido periodista Santiago González, conocido como Santula, que denunció que su imagen fue utilizada para promocionar un supuesto proyecto de Petropar destinado a resolver los problemas financieros de los paraguayos, que prometía una ganancia de G. 25.000.000 con la inversión de solo G. 2.000.000. Lo mismo sucedió con figuras como Menchi Barriocanal y Óscar Acosta, además de colegas como Sara Moreno, Javier Panza y Mabel Rehnfeldt. Fueron víctimas del uso indebido de su imagen para promocionar, a través de videos difundidos en Facebook y TikTok, negocios que prometían grandes sumas de dinero.
Estas situaciones, aunque imaginarias, reflejan una realidad concreta: hoy, nuestras formas de acceder a la información están atravesadas por los algoritmos de las redes sociales. Así como es más fácil comunicarnos e informarnos, también nos exponen a la información con menos intervención de nuestra parte.
¿Cómo tomamos decisiones colectivas si no compartimos la misma información o, peor, si parte de ella es una fabricación? Esa es la premisa que exploramos hoy.

Elecciones vía Facebook
Los ejemplos del principio no son un ejercicio hipotético, son el reflejo de una nueva y alarmante realidad: las elecciones ya no se ganan solo en las plazas, sino también en las pantallas. Esta ingeniería del consenso tiene un nombre: microtargeting emocional, cuyo manual de instrucciones escribió el escándalo de Cambridge Analytica.
Lo que en 2016 parecía una trama de ficción es hoy una práctica sistematizada: los algoritmos de plataformas como Meta perfilan el comportamiento, predicen vulnerabilidades y moldean nuestras decisiones al crear realidades paralelas para cada segmento del electorado. La tecnología permite generar contenido persuasivo masivo —desde deepfakes hasta mensajes hiperpersonalizados—, pero solo para quien pueda pagarlo.
Esta asimetría quedó al descubierto en el estudio Disputando el espacio digital: Paraguay y las elecciones generales 2023 en redes sociales, realizado por Leonardo Gómez Berniga (2023). La investigación reveló que la campaña de Santiago Peña (ANR) registró un gasto de 709.700.000 guaraníes, mientras que la de Efraín Alegre (Concertación) destinó 175.000.000 y la de Paraguayo Cubas (Cruzada Nacional), G. 820.380 en un solo anuncio.
Este escenario se complejizó con la participación de páginas no oficiales, como En la tecla y Sucia política, que desembolsaron 369 y 186 millones de guaraníes, respectivamente. Sus fuentes de financiación nunca fueron declaradas.
Mientras el usuario A veía los anuncios oficiales de Peña, el usuario B era target de los contenidos de En la tecla (que gastó más de 369 millones de guaraníes) o Sucia política (más de 186 millones), páginas especializadas en campañas de polarización.
El porqué de que dos usuarios vean realidades distintas, entonces, es doble: el dinero y la opacidad. Quien solo conocía escándalos no fue víctima del algoritmo caprichoso, sino del direccionamiento de páginas anónimas con un presupuesto millonario. Quien veía discursos formales estaba en el radar de la campaña mejor financiada.
Este caso se enmarca en un fenómeno global donde la tecnología impacta en los procesos democráticos, como lo ejemplificó el caso Cambridge Analytica en las elecciones nacionales de EE. UU. en 2016 o la consulta popular por el Brexit en 2018. En el contexto paraguayo, se observaron técnicas como los deep-fakes y campañas de desprestigio coordinadas. Estas dinámicas han evolucionado a un ritmo que supera la capacidad de actualización de los marcos regulatorios locales, y plantean desafíos para la transparencia electoral.
La arquitectura de la desinformación, basada en anonimato e inversión opaca, no solo distorsiona elecciones sino que también se usa para eliminar disidencias. Así fue el caso de la senadora Kattya González: una campaña de violencia digital allanó el camino para su destitución. La parlamentaria fue expulsada del Congreso, con alegatos de presuntas irregularidades y uso indebido de influencias. Si bien la remoción se realizó con 23 votos a favor cuando el reglamento exigía 30, la campaña de desprestigio legitimó el hecho ante la opinión pública.
Entonces, ¿qué hacemos?
Frente a todo esto, existen respuestas multinivel: desde la alfabetización digital ciudadana hasta la transparencia algorítmica y los marcos regulatorios equilibrados. La investigación de Gómez Berniga insta a modernizar la legislación para garantizar la trazabilidad de estos fondos y exigir mayor transparencia a las plataformas, únicas formas de proteger la equidad en las futuras contiendas digitales.
Nuestro propósito con la serie ¿Qué pasa con mi algoritmo? es acompañarte en la construcción de un criterio más sólido. Es la única manera de que nuestras decisiones nazcan de una información veraz y profunda.




Sin Comentarios