Revista de Ciencias Sociales (RCS)
Vol. XXXI, No. 4, Octubre - Diciembre 2025. pp. 223-238
FCES - LUZ ● ISSN: 1315-9518 ● ISSN-E: 2477-9431
Como citar: Miranda, A. E., Mera, M. J., Illicachi, J., y Arteño, R. (2025). Deepfake como estrategia para desinformar en las redes sociales durante las campañas electorales en Ecuador. Revista De Ciencias Sociales, XXXI(4), 223-238.
Deepfake como estrategia para desinformar en las redes sociales durante las campañas electorales en Ecuador
Miranda Romero, Ana Elizabeth*
Mera Cedeño, Manuel José**
Illicachi Guzñay, Juan***
Arteño Ramos, Rómulo****
Resumen
Este artículo analiza el uso de los diferentes tipos de deepfakes en procesos electorales en Ecuador, desde finales de 2023 hasta abril de 2025. Se enfoca en el rol protagónico de estos recursos audiovisuales para desinformar en los entornos digitales, específicamente en la red X. El objetivo de este trabajo es analizar la polarización y el impacto emocional y político que ocasionaron estas publicaciones, a través del análisis de 20 deepfakes viralizados en X y reportado como falsos, durante las dos últimas campañas presidenciales. La metodología aplicada es mixta. Con el apoyo de la herramienta Grok, se realizó un análisis de sentimientos, codificación temática y métricas de alcance y viralización de esas publicaciones. Los resultados revelaron un patrón de manipulación mediática que generó indignación, miedo y rechazo, lo que profundizó la polarización y afectó la confianza ciudadana en el proceso democrático. Este estudio evidencia el poder de los deepfakes para distorsionar e influir en las percepciones del electorado y la amenaza que representan para la integridad del debate público y la democracia en países con tendencias políticas muy marcadas como Ecuador, en el que se requiere mayor alfabetización digital, verificación de contenidos y regulación ética del uso de inteligencia artificial.
Palabras clave: Deepfake; desinformación digital; campañas electorales; comunicación política; polarización.
* Magister en Dirección de Comunicación Empresarial e Institucional. Docente Investigadora en la Universidad Estatal de Milagro, Milagro, Guayas, Ecuador. E-mail: amirandar4@unemi.edu.ec ORCID: https://orcid.org/0000-0002-6988-1294
** Doctor en Políticas Públicas. Docente Investigador en la Universidad de Guayaquil, Guayaquil, Ecuador. E-mail: manuel.merac@ug.edu.ec ORCID: https://orcid.org/0000-0002-5651-0670
*** Doctor en Antropología. Docente Investigador en la Universidad Nacional de Chimborazo, Riobamba, Chimborazo, Ecuador. E-mail: jillicachi@unach.edu.ec ORCID: https://orcid.org/0000-0001-6283-6290
**** Doctor en Educación Superior. Docente Investigador en la Universidad Nacional de Chimborazo, Riobamba, Chimborazo, Ecuador. E-mail: rramos@unach.edu.ec ORCID: https://orcid.org/0000-0001-9606-6546
Recibido: 2025-06-16 • Aceptado: 2025-09-03
Deepfakes as a strategy to spread misinformation on social media during Ecuador’s election campaigns
Abstract
This article analyzes the use of different types of deepfakes in electoral processes in Ecuador, from the end of 2023 to April 2025. It focuses on the prominent role of these audiovisual resources in spreading disinformation in digital environments, specifically on the X network. The objective of this work is to analyze the polarization and the emotional and political impact caused by these publications, through the analysis of 20 deepfakes that went viral on X and were reported as false, during the last two presidential campaigns. The methodology applied is mixed. With the support of the Grok tool, sentiment analysis, thematic coding, and metrics of reach and virality of these publications were carried out. The results revealed a pattern of media manipulation that generated outrage, fear, and rejection, which deepened polarization and affected public trust in the democratic process. This study demonstrates the power of deepfakes to distort and influence the electorate’s perceptions and the threat they pose to the integrity of public debate and democracy in countries with very marked political tendencies such as Ecuador, where greater digital literacy, content verification, and ethical regulation of the use of artificial intelligence are needed.
Keywords: Deepfake; digital disinformation; election campaigns; political communication; polarization.
Introducción
La proliferación de contenidos engañosos generados por tecnologías avanzadas de Inteligencia Artificial (IA), como los deepfakes, ahonda la avalancha de desinformación en contextos electorales en el ámbito digital, especialmente en regiones con alta polarización política, lo que presupone un serio peligro para los procesos democráticos (Sharma et al., 2024). Este se ha convertido en una herramienta poderosa para manipular percepciones públicas y amplificar narrativas polémicas en contra de candidatos políticos.
Investigadores como Vaccari y Chadwick (2020), sostienen que los deepfakes, al combinarse con inteligencia artificial y contenidos falsos, logran intensificar la desinformación en campañas electorales, especialmente en democracias polarizadas. Los estudios de los dos científicos se enfocaron en el efecto de estos nuevos medios sintéticos sobre la percepción pública y el debate democrático, un fenómeno que bien puede extrapolarse a Ecuador, un país que luego de la culminación del último período presidencial de Rafael Correa (2007-2017) experimentó una creciente polarización entre dos bandos políticos hoy denominados comúnmente como correísmo y anticorreísmo. La división es tan marcada actualmente en Ecuador, que el concepto de polarización ha pasado “de ser un fenómeno político, a convertirse en una preocupación social sustantiva” (Bravo, 2025, p. 118).
Esta situación ha venido en aumento en cada campaña electoral en los últimos 9 años, pero con una fuerza abrumadora en los últimos meses del proceso electoral 2025, lo que se ha agravado por el uso de deepfakes. Cárdenas (2025), señala que durante esa campaña se volvió muy común encontrar contenidos engañosos que imitan cuidadosamente la apariencia, el lenguaje y los logotipos de medios de comunicación a nivel nacional e internacional. El deepfake fue una de las estrategias de contenido falso más fuertes en la campaña, porque la gran mayoría de las personas no distinguían entre lo verdadero y lo falso, lo que permitió que las falsedades circulen como si fueran noticias reales y se graben en la memoria colectiva como hechos noticiosos.
En ese marco, el presente estudio abordó el uso e impacto de los deepfakes en las dos últimas campañas electorales (2023 y 2025), donde en segunda vuelta (balotaje) se enfrentaron Luisa González (candidata del partido Revolución Ciudadana, RC5, surgido del correísmo) y Daniel Noboa (candidato del emergente movimiento Acción Democrática Nacional, ADN) y quien fue declarado por el Consejo Nacional Electoral (CNE) como ganador en ambas elecciones. Durante esas dos campañas, especialmente en la última, se reportaron múltiples casos de uso inédito y sofisticado de deepfakes para desinformar a los electores.
Los casos elegidos estaban dirigidos para desacreditar justo a esos dos candidatos, situación que generó un ambiente de desconfianza, polarización e incertidumbre en la población. El ataque de lado y lado, con el uso de esta técnica, dio origen a preocupaciones en diferentes ámbitos, tanto que hasta la prensa internacional se hizo eco de ello. Padilla (2025), desde la palestra de un importante medio alemán, elaboró un reportaje de más de 10 minutos donde aborda este fenómeno y enfatiza la necesidad de aprender a identificar estos contenidos para prevenir su impacto en la opinión pública, puesto que lo ocurrido en Ecuador evidencia cómo estas tecnologías son herramientas poderosas en las estrategias de manipulación política.
En ese contexto, el presente estudio analiza 20 deepfakes diseminados y viralizados en la red social X, algunos reportados por organizaciones que realizan fact-checking como LupaMedia, EcuadorVerifica, AFP; o por usuarios y personajes políticos que se sintieron afectados con estos productos multimedia falsos.
El objetivo de este análisis es evaluar el alcance de estas publicaciones en la audiencia, examinando sus reacciones a través del tono de los mensajes, las emociones generadas, las tendencias de polarización, las métricas de interacción, el nivel de viralización, y la percepción general de los usuarios a través de un análisis de sentimiento y de los comentarios e hilos asociados. También se buscó identificar patrones en las estrategias de desinformación y su efecto en el discurso electoral, con lo que se pretender contribuir al entendimiento de cómo las tecnologías emergentes afectan los procesos democráticos.
El estudio parte de las siguientes preguntas: ¿Cómo afectan los deepfakes a las percepciones públicas en un contexto electoral polarizado?; ¿Qué emociones y tendencias predominan en las interacciones de los usuarios?; ¿Qué tan efectivas son las contranarrativas verificadas para mitigar el impacto de la desinformación?
1. Fundamentación teórica
1.1. ¿Qué son los deepfakes?
Las deepfakes se relacionan con aquellos videos, imágenes y audios generados con ayuda de la inteligencia artificial que simulan o imitan a una persona. Ha comenzado a ser estudiado ampliamente, puesto que se cree que su uso en estrategias de campañas políticas puede impactar en la percepción de las audiencias y como consecuencia influenciar en la decisión de los votantes con mensajes engañosos y manipulados.
Algunos estudios como el de Rubio (2025), sostienen que el uso de inteligencia artificial en recursos como los deepfakes representa una amenaza significativa para la integridad democrática, al facilitar la manipulación de la información y erosionar la confianza pública mediante contenidos falsos que influyen en la percepción de los votantes en momentos críticos del proceso electoral. Freidenberg (2024), también advierte que el uso de inteligencia artificial en las campañas políticas latinoamericanas ha ampliado las posibilidades de desinformación mediante redes sociales, generando riesgos para la calidad del debate público y la integridad electoral.
Hablar de «deepfakes o deep fakes» es referirse a los avances tecnológicos en los últimos años. Se presenta como una forma avanzada de medios manipulados con enormes desafíos significativos para la autenticidad de la información digital y la confianza pública (Gomes-Gonçalves, 2022; Batista y Santaella, 2024). En este sentido, Singh et al. (2025) coinciden en que los deepfakes, actualmente, representan la nueva generación de medios sintéticos, como la inteligencia artificial que simula una interacción real de una o varias personas. Esta tecnología es cada vez más sofisticada, difícil de detectar, por lo que consigue que la audiencia no pueda diferenciar entre un contenido real y uno manipulado por la IA, lo que ahonda graves problemas como la desinformación, manipulación política y sentimientos de repudio hacia determinados candidatos o tendencias.
1.2. Origen de los deepfakes
El término es una combinación de las palabras inglesas “Deep”, que significa profundo, y “fake”, que quiere decir falso (Altuncu et al., 2024; Fernandes et al., 2025). Este término hace referencia a recursos visuales o de audio que han sido sintéticamente creados o manipulados, para parecer auténticos.
Los deepfakes utilizan Inteligencia Artificial (IA) como el aprendizaje automático (machine learning) y el aprendizaje profundo. Esta tecnología usa redes generativas antagónicas (GAN), que crean imágenes humanas y compiten entre sí para elaborar contenido indistinguible de los datos originales, de acuerdo con el trabajo de Gomes-Gonçalves (2022).
Por su parte, Cole (2017) señala que esta tecnología empezó en el 2017, cuando una persona en Reddit, utilizando el nombre de “Deepfakes”, creó videos de pornografía con el rostro de celebridades reconocidas. Esta manipulación se logró con un programa de codificación automática que le permitió buscar, utilizar imágenes y videos disponibles en internet. Algunos investigadores creen que los deepfakes son una nueva versión de las fake news y que están relacionados con otras formas de desinformación. Afirman que su uso en el ámbito electoral tiene efectos nocivos y maliciosos que agravan polarización política e influye en el proceso democrático (Batista y Santaella, 2024).
1.3. Tipos de Deepfakes
De acuerdo con algunos autores como Batista y Santaella (2024); y, Fernandes et al. (2025), existen algunas categorías o tipos que se identifican como:
a. Deepfaces o caras profundas: Se especializan en la generación de imágenes con rostros altamente realistas pero artificiales según Fernandes et al. (2025). Estos se crean a través de algoritmos de aprendizaje automático capaces de crear nuevos rostros o modificarlos. El fin de este tipo de deepfake es reemplazar la cara de una persona en una imagen o video por la de otra, con el objetivo de simular situaciones que nunca ocurrieron. También se utilizan para crear rostros de individuos no reales pero que resultan convincentes para el observador.
b. Deepvoices o audios deepfakes: Con el uso de la inteligencia artificial se imita la voz de una persona a través de técnicas avanzadas de síntesis del habla, patrones vocales, entonaciones y timbres con un alto grado de precisión (Ballesteros et al., 2021; Bird y Lotfi, 2023). De esta forma, se crean audios prácticamente iguales a las voces de las personas, pero con palabras o discursos que nunca hicieron. En la actualidad, representa un gran riesgo para la comunicación pública y la seguridad de sistemas de autenticación por voz (Singh et al., 2025). Un ejemplo utilizado en procesos electorales fue en New Hampshire en EEUU. en 2024, en el que se usaron llamadas automáticas con una voz generada por IA imitando a Joe Biden para desincentivar el voto demócrata (CNN Español, 2024).
c. Image deepfakes o deepfakes de imágenes: Crea rostros de personas que parecen reales o con el rostro de alguien. Su grado de precisión puede ser en ocasiones imperceptibles para el ojo humano y pasan como una fotografía real. Tiene similitud con el concepto y uso de los deepfakes de video (Fernandes et al., 2025).
d. Video Deepfakes o video manipulado: En esta categoría se encuentran los videos con alteraciones considerables, en los que se reemplaza el rostro de una persona, simulan movimientos, incluyen audio falso, expresiones faciales y sincronización de labios (Abbas y Taeihagh, 2024). Se logra con inteligencia artificial que utiliza aprendizaje profundo, como las redes generativas adversarias (GAN) (Rana et al., 2022).
e. Real-time deepfakes: Se trata de una tecnología en tiempo real para alterar el video y audio con el rostro y voces de otras personas, sean reales o ficticias (Sharma et al., 2024). Es más difícil de detectar y se ha utilizado en casos de fraudes con videollamadas (Fernandes et al., 2025).
1.4. Uso de deepfakes en X, durante las campañas electorales de Ecuador
Este fenómeno comenzó a hacerse fuerte en Ecuador durante la campaña presidencial del año 2023, pero se agudizó en las elecciones de 2025, donde se evidenció en distintas plataformas de redes sociales la saturación de diferentes tipos de deepfakes (Cárdenas, 2025). Estas tecnologías, capaces de crear imágenes, voces y videos falsos marcaron las narrativas digitales y lograron hasta manipular la opinión pública, generar confusión y profundizar la polarización política. A pesar de ello, algunos usuarios más perspicaces y los personajes políticos, señalaban la clonación de sus audios, imágenes y videos para desinformar a la audiencia votante.
Plataformas como X, antes Twitter, reconocido por su inmediatez y marcar tendencias en las conversaciones digitales, se llenó de este tipo de contenidos falsos y manipulados, los que rápidamente se viralizaron. Esta dinámica digital fue la tónica para influir en la forma en que las personas acceden y procesan la información sobre los candidatos. El fenómeno provocó que diferentes organismos comenzaran a realizar procesos de verificación y que los afectados hicieran denuncias. Medios de comunicación como el Diario La Hora (2023), evidenciaba las tendencias y los ataques modernos con clonación de voz y manipulación de imágenes de candidatos.
En el proceso electoral 2025, el uso de estas tecnologías se intensificó y de alguna forma se evidenció la facilidad con la que hoy se puede fabricar una mentira visual o auditiva, usando inteligencia artificial, desafiando no solo a los votantes, sino también a los medios y a las instituciones.
Un ejemplo reciente es la reutilización manipulada de un fragmento del noticiero mexicano N+ Foro, empleado en un deepfake de video que falsamente afirmaba que el Fondo Monetario Internacional (FMI) bloqueó dineros a Ecuador por supuestos usos indebidos en la campaña del presidente Noboa. Esta desinformación fue publicada en 2025 por la cuenta @lamiraecuador, que se presenta como medio político, pero muestra un enfoque sensacionalista que pone en duda su credibilidad. La pieza fue verificada y denunciada como manipulada digitalmente por AFP (2025a).
Como algunos teóricos lo mencionan, los deepfakes aparte de ser una evolución de las noticias falsas, también emergen como un arma peligrosa para el crecimiento de la desinformación y el engaño masivo (Batista y Santaella, 2024). Su uso puede influir en decisiones electorales y debilitar la confianza ciudadana no solo de los candidatos sino del proceso democrático (Chesney y Citron, 2018), así como en el ejercicio periodístico en general.
La normalización de estas técnicas, impulsada por el avance de la IA y la facilidad de acceso a las herramientas, plantea la necesidad urgente de abordar sus riesgos éticos y buscar soluciones regulatorias y tecnológicas para proteger la confianza ciudadana y la salud de la democracia en países como Ecuador. Ante este escenario, resulta urgente educar a la población, fortalecer los mecanismos de verificación y reflexionar sobre el papel de la tecnología en la vida democrática (Rubio, 2025).
2. Metodología
El presente análisis tiene un enfoque mixto y se basa en dos marcos teóricos principales. Primero, la teoría de la desinformación en medios digitales de Wardle y Derakhshan (2017), que define la desinformación como la difusión intencional de información falsa para manipular percepciones públicas, y categoriza sus efectos en contextos de alta polarización política. Este marco es el adecuado para entender cómo los deepfakes se utilizan como herramientas de desinformación electoral.
Segundo, el análisis de sentimiento (Liu, 2015), que permite identificar emociones y percepciones en textos digitales a través de categorías como positiva, negativa y neutral. Este enfoque es ideal para evaluar las reacciones de los usuarios frente a un contenido falso, especialmente en redes sociales donde las interacciones son rápidas y emocionales.
La muestra elegida son 20 publicaciones orgánicas (deepfakes) de la plataforma X, que por su contenido de interés, relevancia social y política en el Ecuador se viralizaron durante las campañas de 2023 y 2025. El análisis logró identificar la tipología, evaluar el alcance e impacto de esas informaciones falsas a través de métricas de redes sociales, y determinar la tónica y tendencia emocional de las interacciones de los usuarios. En el Cuadro 1, se desglosan los deepfakes seleccionados para la muestra.
Cuadro 1
Deepfakes publicados en X
|
No. |
Fecha de publicación |
Usuario de X |
Enlace X |
Contenido del post |
|
1 |
2023.10.08 |
@loboestef |
Que bruta q es la Luisa. Ahora quiere incluir al Fentanilo, que es una de las drogas más adictivas y la reina se la sobredosis, en la tabla de consumo de drogas! |
|
|
2 |
2024.01.08 |
@JuanRamonCast12 |
🚨alerta nacional🚨*se filtra audio de Daniel Noboa, diciendo “el pueblo ecuatoriano es cojudo” la verdad es que da asco que este niño rico trate de cojudos a nosotros el pueblo ecuatoriano, que bestia* |
|
|
3 |
2024.05.28 |
@AlmaMiaEcu |
El #InformeALaNación de Daniel Noboa si fuese honesto… |
|
|
4 |
2024.09.16 |
@sonialilianalop |
Esta tipa está loca, ese impuesto del 47,5% es un atropello al patrimonio familiar y a la economía. Destruye empresas, desincentiva el ahorro y solo fomentará evasión fiscal. Ecuador necesita políticas de desarrollo, no medidas confiscatorias, jamás votaría por esta man |
|
|
5 |
2024.12.18 |
@LaNapleEcua |
Entienden la gravedad de esto??? “Presupuesto de obras públicas para pauta” le vale m la gente solo le importa sus vendettas personales… asco |
|
|
6 |
2025.01.14 |
@LuisaGonzalezEc |
La vieja confiable: asustar con Venezuela. Aquí el video real, sin trucos. Que la verdad hable por sí sola. |
|
|
7 |
2025.01.19 |
@ecuadoraldia365 |
Se viraliza en redes sociales, la supuesta propuesta de la tarjeta “Así Es” de la candidata Luisa González; donde se invita a los votantes a inscribirse para ser beneficiarios de la tarjeta ¿De qué se trata? Descúbrelo aquí: https://tarjetaasies.ec |
|
|
8 |
2025.02.08 |
@AlexisSanchezEC |
¡Vea eso!.. Maduro agradece a @DanielNoboaOk por recibir a 100 mil venezolanos deportados de #EEUU por #Trump y por regularizar a 90 mil más!.. |
|
|
9 |
2025.02.23 |
@85Estebancer |
Hagan algo, Noboa está sufriendo mucho al abrazar y comer la comida del pueblo |
|
|
10 |
2025.03.05 |
@LaNapleEcua |
Ricardo Patiño reenvía audio de Aquiles Álvarez al grupo de cuarto de Guerra de RC y se filtra. |
|
|
11 |
2025.03.17 |
@CelulaNoticiera |
Alerta Ecuador: Circula un video de alias Fito… |
|
|
12 |
2025.03.23 |
@lamiraecuador |
¡El aliado de Noboa se enoja con ecuador! ¡el fmi bloqueó desembolsos por uso proselitista de Daniel Noboa #nosgobiernandelincuentes |
|
|
13 |
2025.03.23 |
@jpjaramillo25 |
A Noboa ya lo noquearon, le dijeron mentiroso y ladrón, beneficiario de los contratos del Estado. Incluso le mandaron a hacer una prueba antidoping porque no sale de su rima 😂😂😂 #NoboaNoNoMientas |
|
|
14 |
2025.03.24 |
@elvoceroecu |
Se viene el apoyo de Jan Topic a la campaña de Luisa González para tratar de captar el voto indeciso. El movimiento SUMA del cual fue parte Topic está en contra de esta decisión que se le conocerá oficialmente en los próximos días |
|
|
15 |
2025.03.29 |
@luisevivanco |
Chiii, a mí me vendieron esta idea. Qué bajón |
|
|
16 |
2025.03.30 |
@lamiraecuador |
¿Visitar esmeraldas o mar-a-lago? |
|
|
17 |
2025.04.09 |
@marieleins |
Tan malo es Noboa que ni milei se quiere comparar con él |
|
|
18 |
2025.04.12 |
@AlexisSanchezEC |
Este video es de antología para florindos y Nobitas . Su ídolo #NayihBukele, hablando sobre su super idolo , su “presi” Daniel Noboa … 😉😉 PD : En 3, 2, 1… ya estarán diciendo que es “inteligencia artificial” |
|
|
19 |
2025.04.12 |
@ElNecio_Cuba |
Nayib Bukele: «Ecuador ha roto todos los records de inseguridad… |
|
|
20 |
2025.05.07 |
@carguellosr |
Aquí @LuisaGonzalezEc y su progresismo destructor de valores. Afirma muy suelta, que apoyarán el cambio de sexo en niños ????. Sigue nomás Lucha lo estás haciendo perfecto !!! |
Fuente: Elaboración propia, 2025 desde la red X.
Las publicaciones escogidas corresponden a las campañas presidenciales de los años 2023 y 2025, donde llegaron a segunda vuelta los candidatos Luisa González y Daniel Noboa. En ambos balotajes, Noboa ganó la presidencia. Para el análisis de cada publicación se contó con la asistencia de la herramienta Grok, un modelo de inteligencia artificial desarrollado por xAI (X Corp, 2025). Para el uso de Grok se construyeron meticulosamente los prompts, que permitieron aprovechar al máximo el conocimiento interno de este modelo sobre deepfakes, métricas de redes sociales y análisis de sentimiento. No fue necesario recurrir a herramientas externas de búsqueda web o análisis técnico directo.
El proceso de análisis atravesó las siguientes fases:
Fase 1. Recolección de datos: a) Se escogieron 20 publicaciones en X, que incluyen el contenido principal y el producto multimedia, visualizaciones, me gusta, reposteos, guardados, comentarios, además de respuestas asociadas o hilos de conversación; b) Las fechas de las publicaciones abarcan el período electoral desde octubre de 2023 a abril 12 de 2025.
Fase 2. Análisis de Tono y Emociones: a) Se evaluó el tono del mensaje principal y de las respuestas mediante un análisis cualitativo, clasificando el tono como positivo, negativo o neutral; b) Se identificaron las emociones predominantes como indignación, escepticismo, miedo, apoyo, entre otras, que se reflejan en el contenido y las interacciones. Para ello se utilizó la codificación temática.
Fase 3. Análisis de Métricas y Viralización: a) Se registraron las métricas de interacción (visualizaciones, me gusta, reposteos, comentarios, guardados) para medir el alcance de cada publicación; b) Las métricas se basan en las siguientes formulas que se muestran en el Cuadro 2.
Cuadro 2
Fórmulas de métricas
|
Métrica |
Fórmula |
|
Engagement Total |
Respuestas + Reposteados + Me Gusta |
|
Tasa de Engagement |
(Engagement Total / Visualizaciones) × 100 |
|
Tasa de Interacción |
(Comentarios / Visualizaciones) × 100 |
|
Tasa de Difusión |
(Reposteados / Visualizaciones) × 100 |
Fuente: Elaboración propia, 2025 fundamentada en la metodología de Grok.
Fase 4. Análisis de sentimiento: a) Se clasificaron las respuestas de los usuarios en tres categorías: Positiva (apoyo a la narrativa del deepfake o al autor), negativa (crítica al deepfake o al candidato), y neutral (sin opinión clara o irrelevante); b) El análisis de sentimiento se realizó manualmente revisando los comentarios y respuestas al post, clasificando las emociones expresadas en tres categorías: Positivo, negativo y neutral. Además, se identificaron palabras clave y el tono general como crítico, sarcástico, indignado, entre otros. A continuación, se presenta la Fórmula de sentimiento arrojada por Grok:

Fase 5. Análisis de comentarios e hilos: a) Se examinaron los comentarios e hilos asociados para identificar patrones en las interacciones, como amplificación de la desinformación, desmentidos o polarización política.
3. Deepfake estrategia para desinformar en las redes sociales durante las campañas electorales en Ecuador
En base al análisis de los 20 contenidos identificados como deepfakes se pudo determinar la profunda polarización y sentimientos negativos que estos contenidos generaron en la red social X, durante las campañas presidenciales de los años 2023 y 2025, especialmente durante esta última. En los resultados predominan emociones como indignación, burla, desconfianza, miedo, odio y desprecio. Los comentarios no solo se dirigen hacia los candidatos, sino también hacia los usuarios que publicaron los contenidos falsos, quienes agravaron la confrontación y contribuyeron a la desinformación. También se determina que varios de los comentarios negativos sobrepasan el 70% de la interacción, lo que refleja una tendencia a creer en la falsedad o que los simpatizantes refuercen sus narrativas partidistas.
3.1. Deepfake 1 (Video deepfake de sincronización de labios y clonación de voz)
Este video fue publicado por la cuenta @loboestef, el mismo que muestra supuestas declaraciones de Luisa González donde indica “su intención de incluir el fentanilo en el umbral mínimo de consumo de drogas”. Esta afirmación falsa fue verificada por AFP (2025b) y otros usuarios. El video generó miedo y rechazo hacia González. Alcanzó 10.400 visualizaciones, 147 resposteos, 129 me gusta, 3 guardados y 46 comentarios.
3.2. Deepfake 2 (Deepvoice o audio falso)
Una supuesta nota del medio digital La Posta publica un supuesto audio filtrado del presidente Daniel Noboa, donde se escucha decir que “el pueblo ecuatoriano es cojudo”. Se reporta una nota comunitaria en X, señalando que es generado por IA. La publicación es realizada por @JuanRamonCast12, crítico del gobierno. El alcance refleja 768.500 visualizaciones, 514 reposteos, 1.000 me gusta, y 214 marcados.
3.3. Deepfake 3 (Video deepfake sincronización labial y clonación de voz)
Publicado por el usuario @AlmaMiaEcu, se trata de una sátira del discurso del informe a la nación del presidente Daniel Noboa. Esta publicación registra 96.800 visualizaciones, 1.000 reposteos, 2.000 me gusta y 219 guardados, 210 respuestas, de los cuales 108 comentarios son positivos (51,4%) y apoyan de forma entretenida a la sátira y crítica al presidente Noboa; 62 comentarios son negativos (29,5%) y rechazan la desinformación generada por la IA para confundir a la audiencia. Hay 40 comentarios neutrales (19%), que no tomaron una postura.
3.4. Deepfake 4 (Video deepfake sincronización labial y clonación de voz)
El video corresponde a una entrevista a Luisa González en un medio local. El contenido ha sido manipulado para mostrar declaraciones sobre elevar el impuesto a las herencias al 47,5%. La publicación es de @sonialilianalo, crítica del partido correísta. Este post generó 424 respuestas, de las cuales 297 comentarios son negativos (70%) porque dan por real el contenido del video, critican e insultan a Luisa González, expresan desaprobación y enojo.
3.5. Deepfake 5 (Audio clonado o audio deepfake)
La voz generada por IA imita a Aquiles Álvarez, alcalde de Guayaquil de la línea del correísmo. Es un supuesto audio grabado en el teléfono celular, donde se discute el mal uso del presupuesto de obras públicas del Municipio para publicidad política para la Revolución Ciudadana y la distracción de temas relacionados con la acusación de tráfico de combustible contra el alcalde. La publicación la realiza @LaNapleEcua, una cuenta que se identifica como una agencia de noticias de investigación, pero que deja en duda su imparcialidad y transparencia al publicar varios deepfakes.
Las métricas muestran un alto alcance: 151.800 visualizaciones y una difusión significativa con 1.000 reposteos, lo que indica el potencial de los deepfakes para influir en la opinión pública durante elecciones; y 1.000 me gusta reflejan un posible apoyo a la publicación. Sin embargo, la tasa de engagement (1,58%) sugiere que, aunque el contenido generó curiosidad no necesariamente resultó en una interacción profunda, posiblemente debido a la desconfianza de los usuarios.
3.6. Deepfake 6 (deepfake de audio o clonación de voz)
El audio manipulado fue parte del montaje en la grabación de un miting de la candidata de la Revolución Ciudadana, donde supuestamente declara su simpatía, apoyo y felicitación al Gobierno de Venezuela. Este fue un post directo de @LuisaGonzalezEc para contrastar el video falso con el video real, evidenciando lo que ella considera una campaña sucia y de desinformación en su contra. La publicación generó un alcance masivo 113.100 visualizaciones, 1.000 reposteos, 3.000 me gusta, 10 guardados y 362 respuestas, con un engagement de 3,86%.
3.7. Deepfake 7 (video deepfake sincronización labial y clonación de voz)
Este deepfake manipula un video tipo informativo de la candidata Luisa González, en el que supuestamente declara la implementación de la tarjeta “Así es” que daría beneficios semanales a las familias. Dicho contenido del video fue verificado por EFE Verifica (2025) y lo determinó como falso y manipulado. Esta publicación fue subida a X por @Ecuadoraldía365, una cuenta que se identifica como un sitio de noticias y periodismo libre, pero que frecuentemente critica a la RC5. Las métricas evidencian un alcance con 14.400 visualizaciones, pero con baja interacción como los 40 reposteos, 12 me gusta, 6 guardados y 48 comentarios que reflejan un 0,41% de engagement, es decir que solo un pequeño porcentaje de los espectadores interactuó directamente con el post del usuario que se identifica como un medio de comunicación digital.
3.8. Deepfake 8 (Video deepfake con sincronización de labios y clonación de audio)
Se reutiliza un video para manipular de forma digital las declaraciones de Nicolás Maduro que supuestamente agradece a Daniel Noboa por recibir a miles de venezolanos deportados de EEUU. Esta publicación surge de la cuenta de usuario @AlexisSanchezEC crítico hacia el candidato Noboa, como se evidencia en el hashtag #NoboaNuncaMás y afín al otro movimiento de acuerdo con el tono del mensaje. El video manipulado fue verificado por AFP (2025c). En métricas se registra una tasa de 302.500 visualizaciones significativas, 1.000 me gusta, 720 reposteos, 90 marcadores o guardados y 441 respuestas.
3.9. Deepfake 9. (Image deepfake)
Se manipuló digitalmente una fotografía de Noboa junto a ciudadana en un mercado popular, la cual se convierte en video, en la que el personaje Noboa hace gestos de aversión hacia la persona. Este post publicado por el usuario @85Estebancer en un tono sarcástico, parodia y critica al candidato, a quien se lo muestra incómodo y lejano al pueblo. La publicación registra 75.100 visualizaciones, lo que sugiere que el contenido tuvo una amplia difusión en la plataforma X, 335 reposteos, 807 me gusta y 3 comentarios que el usuario aprobó en su cuenta, lo que marca un sesgo crítico a Noboa y la aprobación de la foto manipulada.
3.10. Deepfake 10. (Deepvoice o clonación de voz)
Otra vez es una clonación del alcalde de Guayaquil, Aquiles Álvarez (RC5) donde se lo oye hablar sobre el financiamiento de la campaña de Luisa González y una supuesta malversación de fondos públicos. Esta publicación realizada por @LaNapleEcua generó un alto nivel de engagement, discusión y viralización significativa dentro de su audiencia. Se registra un alcance significativo de 223.900 visualizaciones, 1.000 reposteos como indicador de viralización y 2.000 me gusta y 406 guardados, lo que supone un alto interés en el tema.
3.11. Deepfake 11 (Deepvoice o clonación de voz)
Clonación de la voz de José Adolfo Macías Villamar, alias «Fito», líder de la banda criminal “Los Choneros”, tomada de una videollamada antigua. En este video el personaje declara que supuestamente hay un acuerdo con el gobierno ecuatoriano en el tema de su captura. Este post publicado por el usuario @CelulaNoticiera que se considera un medio de comunicación digital, deja en duda la credibilidad de sus publicaciones y su tendencia política. Su alcance se registra con 2.729 visualizaciones, 74 reposteos, 157 me gusta y 28 respuestas.
3.12. Deepfake 12 (Video deepfake de sincronización labial y clonación de voz)
Se reutilizó parte de un noticiero mexicano de N+ Foro para crear una publicación falsa sobre el bloqueo del FMI al Ecuador por el uso indebido de fondos en la campaña de Noboa. Esta nota fue verificada por AFP (2025a) y catalogada como manipulado digitalmente. El video fue publicado por @lamiraecuador que se identifica como un medio de comunicación enfocado en temas políticos en Ecuador, que deja en duda su credibilidad y que lo caracteriza por su manejo sensacionalista. El objetivo de la publicación fue manipular y desinformar a la opinión pública sobre la imagen del presidente en campaña. Este post alcanzó 30.800 visualizaciones, 1.000 likes, 918 reposteos o compartidos de forma amplia, 71 respuestas y 40 marcadores. Un engagement del 6,42% considerado alto para esta publicación y su temática.
3.13. Deepfake 13. (Video deepfake de sincronización labial y clonación de voz)
En este caso, con la tecnología de inteligencia artificial se reutilizó un extracto del debate presidencial, para alterar principalmente el mensaje y los gestos de Noboa, rasgos de la moderadora y declaraciones de la candidata González. La publicación del usuario @jpjaramillo25, buscó satirizar y ridicualizar la participación de los candidatos con temas como prueba antidoping y desdolarización. Las métricas de la publicación muestran un alcance de 65.800 visualizaciones, 339 reposteos, 732 me gusta, 7 guardado y 199 comentarios, con un engagement alto del 1,94%, lo que demuestra que el contenido se amplificó a nuevas audiencias entre los usuarios de X por lo controversial del tema.
3.14. Deepfake 14 (Deepfake de audio o clonación de voz)
La voz de Joan Topic, político ecuatoriano, es clonada con el fin de mencionar apoyo a Luisa González e influir en el voto indeciso a favor o en contra de Luisa González. Este post del usuario @elvoceroecu fue verificado y declarado manipulado por LupaMedia (2025a). El alcance de la publicación es de 148.600 visualizaciones, 556 compartidos que amplifican la difusión del post, 713 Me gusta y 153 marcadores o guardados que evidencia algún tipo de interés y 210 respuestas, de las cuales, 12 comentarios positivos (5,7%) en defensa a los personajes involucrados en el audio, 186 comentarios negativos (88,6%) que evidencian desconfianza, crítica o rechazo al contenido y 12 comentarios neutrales (5,7%) sin carga emocional clara.
3.15. Deepfake 15 (Image Deefake o imagen falsa y surrealista)
Imagen creada con inteligencia artificial que presenta una reunión informal y amistosa entre los presidentes Donald Trump y Noboa. La publicación proviene de la cuenta @luisevivanco, periodista del medio digital La Posta, investigador, crítico del gobierno y actores políticos, su comentario es sátira y burla crítica al viaje del mandatario ecuatoriano a una reunión con el presidente de Estados Unidos. Las métricas reflejan un alcance considerable de 314.400 visualizaciones, 2.000 me gusta, 424 reposteos y 915 comentarios en su mayoría con tono crítico, sarcástico, de burla e insultos al autor del post, lo que refleja una polarización electoral.
3.16. Deepfake 16 (Image Deefake o imagen falsa)
Animación elaborada a partir de una foto real, para recrear una reunión oficial e informal entre el presidente Daniel Noboa, su esposa y el mandatario estadounidense Donald Trump. La publicación, subida por el supuesto medio digital @lamiraecuador, busca posicionar en la audiencia que el presidente Noboa prefiere una reunión social con Trump que tratar los graves problemas del país. El alcance de esta publicación es de 57.600 visualizaciones, 363 reposteos, 756 me gusta, 32 guardados y 87 comentarios con una tasa considerada alta de engagement del 2,16%.
3.17. Deepfake 17. (Video deepfake de sincronización labial y clonación de voz)
Se reutiliza una entrevista del presidente de Argentina para poner en sus labios una crítica contra Noboa, por el ingreso de migrantes venezolanos a Ecuador. El usuario que lo publica es @marieleins, activo en temas políticos y crítico del presidente actual del Ecuador. El fact-checking de este contenido multimedia falso lo realizó LupaMedia (2025b). La alta visualización de 35.200, indica que el contenido generó interés, probablemente debido a la controversia alrededor de la supuesta declaración de Milei, 530 reposteos amplificaron la difusión, hubo 875 me gusta y 81 respuestas.
3.18. Deepfake 18 (Video deepfake de sincronización labial y clonación de voz)
Se manipula de forma digital una entrevista al presidente Nayib Bukele, en la que supuestamente critica en un tono sarcástico y despectivo las acciones del presidente ecuatoriano Daniel Noboa, en el tema delicuencial y personal. Esta publicación es del usuario @AlexisSanchezEC, un crítico del gobierno de Noboa. El fact-checking de Ecuador Chequea (2025a), determinó que era un contenido falso. El alcance considerable fue de 65.800 visualizaciones, 100 reposteos, 2.000 me gusta, 178 marcadores y 199 respuestas. Tiene una tasa elevada de engagement del 5,1%, lo que refleja controversia e interés de la publicación.
3.19. Deepfake 19 (Video deepfake de sincronización labial y clonación de voz)
Se reutilizó otra entrevista a Nayib Bukele en medios de comunicación, donde supuestamente critica al presidente ecuatoriano por el manejo de la seguridad. Este post es del usuario @ElNecio_Cuba, crítico hacia figuras de derecha como el presidente Noboa. El video fue verificado como falso por Ecuador Chequea (2025b). La publicación tiene un alcance considerable de 97.000 visualizaciones, 791 me gusta, 404 reposteos, 39 guardados y 55 respuestas.
3.20. Deepfake 20. (Video deepfake de sincronización labial y clonación de voz)
Se trata de la manipulación de una entrevista a Luisa González, donde supuestamente declara estar a favor del cambio de sexo en niños. Este video es publicado por @carguellosr, cuenta crítica a la candidata González, obtenido de la plataforma de TikTok bajo el usuario @trendnewsec. El contenido fue verificado como falso por LupaMedia (2025c). El alcance de esta publicación fue de 48.400 visualizaciones, 392 reposteos, 423 me gusta, 35 marcadores y 195 comentarios. La tasa de engagement se considera alta con el 2,09%.
Aquellos usuarios que no lograron identificar los contenidos falsos, la emoción negativa fue suficientemente alta como para influir en sus percepciones, aunque la pieza haya sido verificada y etiquetada como falsa, lo que coincide con la teoría plasmada por Vaccari y Chadwick (2020), quienes advierten que los medios sintéticos pueden erosionar la deliberación democrática al generar desconfianza y confusión.
Por otra parte, la tasa de engagement y la viralización de estos contenidos muestran que los deepfakes actúan como catalizadores de polarización, y herramientas estratégicas de desinformación política (Batista y Santaella, 2024), porque funcionan para el ataque en contra de un candidato. Este fenómeno compromete no solo la calidad del debate democrático, sino que también erosiona la confianza en las instituciones, los medios y la veracidad de la información compartida en plataformas digitales (Floridi et al., 2018).
Conclusiones
El estudio realizado con muestras extraídas de publicaciones viralizadas en X, durante las dos últimas elecciones presidencias en Ecuador, evidencia que los deepfakes impulsados por IA son una herramienta efectiva y muy poderosa para las estrategias de campañas de desinformación política. El uso de imágenes, voces, videos manipulados con IA son la nueva arma de manipulación que tienen un gran poder para amplificar narrativas negativas y convertir mentiras en supuestas verdades contra los candidatos y hasta influenciar en tendencias políticas o en un electorado indeciso y sobreinformado.
En la investigación también se identificaron casos sofisticados de manipulación digital para atacar a los dos candidatos con mayor aceptación, pero con grandes diferencias políticas y conceptuales. En ambos lados se generaron emociones como desconfianza, frustración, confrontación, crítica, escepticismo, rechazo, desprecio, ira, odio y sarcasmo, hacia la imagen de los políticos.
Algunas publicaciones fueron desmentidas por los personajes involucrados, reportadas por sitios de verificación (fact-checking) como LupaMedia, EcuadorVerifica, AFP, DW Verifica, y EFE Verifica, o señaladas como falsas por los propios usuarios en los comentarios. Este último sugiere que las contranarrativas o la propia capacidad crítica de algunos usuarios tienen cierto alcance y visibilidad dentro de la discusión.
Los comentarios o respuestas se dividieron entre quienes apoyaban o defendían al candidato afectado y quienes utilizaban el deepfake para reforzar narrativas negativas contra el oponente. En algunos casos, los deepfakes diseñados como sátira también generaron división, entre usuarios que los encontraron entretenidos y otros que los rechazaron por generar desinformación. Se observó una tendencia del alto alcance y de viralización de estos contenidos desinformativos. Algunos usuarios que publicaron los deepfakes estudiados se identificaron como medios de comunicación digital o influencers afines a los candidatos. Esto amplificó la difusión del deepfake, la generación de emociones negativas y la aceptación del contenido multimedia falso como verdad.
También se pudo evidenciar que los deepfakes pueden ser utilizados no solo para difundir desinformación, sino también para amplificar narrativas preexistentes de rechazo o crítica hacia una figura política. En el caso de Luisa González y Daniel Noboa, estos contenidos de multimedia manipulados y publicados en X sirvieron para que los usuarios expresen sus emociones de rechazo, desconfianza, escepticismo, burla y de palabras despectivas, más allá de la manipulación del contenido.
Referencias bibliográficas
Abbas, F., y Taeihagh, A. (2024). Unmasking deepfakes: A systematic review of deepfake detection and generation techniques using artificial intelligence. Expert Systems with Applications, 252, 124260. https://doi.org/10.1016/j.eswa.2024.124260
AFP (31 de marzo de 2025a). Noticiero fue alterado para acusar a Daniel Noboa de “uso indebido” de crédito con el FMI. AFP Factual. https://factual.afp.com/doc.afp.com.38LP2ZU
AFP (7 de febrero de 2025b). Video de la candidata Luisa González promoviendo el uso del fentanilo en Ecuador es un montaje. AFP Factual. https://factual.afp.com/doc.afp.com.36XE3KR
AFP (13 de febrero de 2025c). Video de Nicolás Maduro sobre venezolanos deportados de EEUU y acogidos por Ecuador es un montaje. AFP Factual. https://factual.afp.com/doc.afp.com.36XM4CA
Altuncu, E., Franqueira, V. N. L., y Li, S. (2024). Deepfake: Definitions, Performance Metrics and Standards, Datasets and Benchmarks, and a Meta-Review. Frontiers in Big Data, 7, 1400024. https://doi.org/10.3389/fdata.2024.1400024
Ballesteros, D. M., Rodriguez-Ortega, Y., Renza, D., y Arce, G. (2021). Deep4SNet: Deep learning for fake speech classification. Expert Systems with Applications, 184, 115465. https://doi.org/10.1016/j.eswa.2021.115465
Batista, A. R. F., y Santaella, L. (2024). Prognósticos das deepfakes na política eleitoral. Organicom, 21(44), 187-196. https://doi.org/10.11606/issn.2238-2593.organicom.2024.221294
Bird, J. J., y Lotfi, A. (2023). Real-time detection of AI-Generated Speech for deepfake voice conversion. arXiv:2308.12734. https://doi.org/10.48550/arXiv.2308.12734
Bravo, C. (2025). Elecciones presidenciales en Ecuador: Un proceso huérfano de propuestas, dominado por la polarización y la desinformación. Más Poder Local, (60), 113-126. https://doi.org/10.56151/maspoderlocal.294
Cárdenas, E. (11 de abril de 2025). Así operó la desinformación durante la campaña. Ecuador Chequea; Periodismo con Rigor. https://ecuadorchequea.com/asi-opero-la-desinformacion-durante-la-campana/
Chesney, R., y Citron, D. K. (2018). Deep Fakes: A looming challenge for privacy, democracy, and national security. Social Science Research Network: SSRN Scholarly, Paper No. 3213954. https://doi.org/10.2139/ssrn.3213954
CNN Español (23 de enero de 2024). Un mensaje con la voz falsificada de Biden pide a los votantes que se queden en casa. CNN Español. https://cnnespanol.cnn.com/video/voz-biden-llamada-falsa-trax
Cole, S. (December 11, 2017). AI-Assisted fake porn is here and we’re all fucked. VICE. https://www.vice.com/en/article/gal-gadot-fake-ai-porn/
Ecuador Chequea (15 de abril de 2025a). Es falso: Bukele no ha dicho que Noboa iba a combatir la inseguridad con un tatuaje en el brazo. Ecuador Chequea. https://ecuadorchequea.com/es-falso-bukele-no-ha-dicho-que-noboa-iba-a-combatir-la-inseguridad-con-un-tatuaje-en-el-brazo/
Ecuador Chequea (11 de abril de 2025b). Es falso que Bukele ha dicho que Noboa llevó la inseguridad en Ecuador a récords históricos. Ecuador Chequea. https://ecuadorchequea.com/es-falso-que-bukele-ha-dicho-que-noboa-llevo-la-inseguridad-en-ecuador-a-records-historicos/EFE Verifica (24 de enero de 2025). Luisa González no está promocionado una tarjeta llamada «Así es». EFE Verifica. https://verifica.efe.com/luisa-gonzalez-deepfake-tarjeta-asi-es-ecuador/
Fernandes, A., Fernández, D., Molero, D., y Pérez, M. (2025). Deepfakes: Riesgos, casos reales y desafíos en la era digital. Observatorio de Deepfake de ISMS Forum. https://www.ismsforum.es/ficheros/descargas/deepfake-final1742458135.pdf
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P., y Vayena, E. (2018). AI4People—An ethical framework for a good ai society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689-707. https://doi.org/10.1007/s11023-018-9482-5
Freidenberg, F. (2024). El ciclo electoral en América Latina (2023-2024): Liderazgos antipluralistas, polarización perniciosa, insatisfacción ciudadana y resiliencia democrática. Análisis Carolina, (14). https://doi.org/10.33960/AC_14.2024
Gomes-Gonçalves, S. (2022). Los deepfakes como una nueva forma de desinformación corporativa – una revisión de la literatura. IROCAMM. International Review of Communication and Marketing Mix, 5(2), 22-38. https://doi.org/10.12795/IROCAMM.2022.v05.i02.02
La Hora (5 de octubre de 2023). Ecuador ya vive el pico de la desinformación en la campaña presidencial. La Hora. https://www.lahora.com.ec/pais/desinformacion-tendencias-fakenews-campanas-confirmacion-mentiras-verdades/
Liu, B. (2015). Sentiment analysis: Mining opinions, sentiments, and emotions. Cambridge University Press. https://doi.org/10.1017/CBO9781139084789
LupaMedia (26 de marzo de 2025a). ¿Jan Topic apoya a Luisa González? LupaMedia. https://lupa.com.ec/verificaciones/jan-topic-apoya-luisa-gonzalez/
LupaMedia (9 de abril de 2025b). Javier Milei no habló mal acerca de Daniel Noboa. LupaMedia. https://lupa.com.ec/verificaciones/javier-milei-daniel-noboa-fake/
LupaMedia (13 de febrero de 2025c). ¿Luisa González propone financiar transición de género en niños? LupaMedia. https://lupa.com.ec/verificaciones/gonzalez-propone-financiar-transicion-genero-ninos/
Padilla, G. (12 de abril de 2025). «Deepfakes» en la campaña electoral en Ecuador. DW. https://www.dw.com/es/deepfakes-y-noticieros-falsos-en-las-elecciones-en-ecuador/video-72227667
Rana, M. S., Nobi, M. N., Murali, B., y Sung, A. H. (2022). Deepfake detection: A systematic literature review. IEEE Access, 10, 25494-25513. https://doi.org/10.1109/ACCESS.2022.3154404
Rubio, R. (2025). El uso de la inteligencia artificial en las campañas electorales y sus efectos democráticos. Revista de Derecho Político, (122), 65-102. https://doi.org/10.5944/rdp.122.2025.44742
Sharma, S. K., AlEnizi, A., Kumar, M., Alfarraj, O., y Alowaidi, M. (2024). Detection of real-time deep fakes and face forgery in video conferencing employing generative adversarial networks. Heliyon, 10(17), e37163. https://doi.org/10.1016/j.heliyon.2024.e37163
Singh, M., Bhargava, D., Bhargava, A., y Singh, K. (2025). Demystifying Deepfakes: Understanding, implications, and safeguards. In G. Gupta, S. Bohara, R. Kovid y K. Pandla (Eds.), Deepfakes and Their Impact on Business (pp. 299-318). IGI Global Scientific Publishing. https://doi.org/10.4018/979-8-3693-6890-9.ch014
Vaccari, C., y Chadwick, A. (2020). Deepfakes and disinformation: Exploring the impact of synthetic political video on deception, uncertainty, and trust in news. Social Media + Society, 6(1). https://doi.org/10.1177/2056305120903408
Wardle, C., y Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe Publishing. https://edoc.coe.int/en/media/7495-information-disorder-toward-an-interdisciplinary-framework-for-research-and-policy-making.html
X Corp (2025). Acerca de Grok, tu divertido asistente de inteligencia artificial en X. X Centro de ayuda. https://help.x.com/es/using-x/about-grok