Las elecciones presidenciales en Ecuador, programadas para abril de 2025, han puesto de relieve la problemática creciente del uso de inteligencia artificial para propagar desinformación a través de deepfakes. En un contexto donde la confianza pública es fundamental, la aparición de videos manipulados, como el que falsamente mostraba a la candidata Luisa González afirmando que instauraría un ‘régimen como el de Venezuela’, causó un revuelo significativo en las redes sociales. Este video, que alcanzó más de 2.1 millones de vistas en plataformas como TikTok y X, no solo viralizó un mensaje engañoso, sino que también sembró la discordia y desconfianza en el proceso electoral ecuatoriano, planteando serias preguntas sobre la integridad de la democracia en el país.
Además de los deepfakes visuales, la desinformación también se ha manifestado a través de audios manipulados. Un caso notable implicó un clip que supuestamente atribuía a France 24 la acusación de que la ONU supervisaría las elecciones por presunto fraude, lo que alarmó a la ciudadanía. La AFP desmintió esta afirmación, esclareciendo que se usaron herramientas de IA de acceso público para crear el contenido falso. Estas manipulaciones no solo han impactado la percepción pública, sino que también han llevado a la agencia Lupa Media a identificar al menos 15 casos de desinformación derivados de tecnología de IA, demostrando que la batalla contra la manipulación informativa está lejos de ser ganada.
La situación en Ecuador plantea una advertencia a otros países de la región, como Chile, donde el riesgo de desinformación está latente. Durante el proceso constituyente de 2022-2023, se documentaron múltiples campañas de desinformación llevadas a cabo por grupos organizados, como ‘Resistencia Patriótica’. Según un estudio de Derechos Digitales, estas campañas utilizaron redes de bots y personas influyentes para propagar mentiras. A medida que las herramientas de IA se vuelven más accesibles y sofisticadas, la preocupación entre los chilenos crece; de hecho, un estudio de AIM Chile reveló que el 71% de la población considera la desinformación como una amenaza directa a la democracia.
Para enfrentar esta creciente ola de desinformación, expertos han propuesto una serie de regulaciones necesarias para el manejo de contenidos generados por IA. La adopción de marcos legislativos similares al Digital Services Act de la Unión Europea ha sido sugerida para obligar a las plataformas a retirar deepfakes maliciosos rápidamente. Además, se ha planteado la necesidad de implementar marcas de agua digitales en contenidos generados por IA, así como una mayor fiscalización de empresas como Meta y X, que deben priorizar la veracidad sobre el engagement en sus algoritmos. También se hace hincapié en la educación ciudadana, con herramientas como Google Lens y Deepware siendo fundamentales para detectar este tipo de contenido engañoso.
En este contexto, las advertencias de especialistas y organizaciones como Lupa Media marcan una pauta sobre la urgencia de actuar antes de que las elecciones en Chile se conviertan en un blanco fácil para la desinformación. A pesar de que se han discutido regulaciones y se ha conformado una comisión asesora, aún no se ha establecido una legislación clara que prohíba la identificación de contenidos generados por IA ni sancione la desinformación. Con el reciente desempeño de las redes en Ecuador como un claro ejemplo de los peligros que acechan a las democracias contemporáneas, es evidente que Chile necesita tomar medidas decisivas para proteger la integridad de su proceso electoral.