Cuando la mentira se vuelve tendencia: rumores de muerte, guerra y el “efecto IA”
Por Luis Orlando Díaz Vólquez
En tiempos de conflicto, la información deja de ser un simple insumo para convertirse en un campo de batalla. Y en ese terreno, la desinformación no solo confunde: desgasta la confianza pública, altera el comportamiento social y puede empujar decisiones de alto riesgo. El reciente episodio en el que circularon rumores sobre la muerte de un jefe de gobierno en Medio Oriente —y la posterior difusión de un video para desmentirlos— no es una anécdota ligera de redes sociales; es una fotografía nítida de una era donde el rumor compite con la realidad en igualdad de condiciones… y a menudo la supera en velocidad.El guion es conocido: una afirmación explosiva surge en plataformas digitales, se multiplica a través de cuentas que operan con lógica de propaganda o sensacionalismo, y se sostiene en “pruebas” visuales de baja calidad —capturas, recortes, supuestos “detalles” de imagen— que se presentan como evidencia irrefutable. En este caso, se añadió un ingrediente aún más corrosivo: la sospecha de que una aparición pública podía estar generada por inteligencia artificial, alimentada por una narrativa viral sobre “dedos de más” y, por tanto, un supuesto deepfake. Verificadores y medios reportaron que se trataba de contenidos engañosos y atribuyeron la percepción a manipulación o a efectos visuales/ángulos.
Lo más revelador no es la existencia del rumor —eso ha acompañado a la política y la guerra desde siempre— sino la facilidad con la que un ecosistema digital puede “fabricar plausibilidad”. Basta una imagen falsa con apariencia oficial o una traducción sacada de contexto para que el público lo considere posible. De hecho, se ha señalado que parte de la ola de rumores se alimentó de capturas supuestamente vinculadas a cuentas oficiales y de difusión posterior en redes.
Aquí aparece el gran cambio de época: la IA no solo produce contenidos; también produce un nuevo estado mental colectivo: la duda permanente. Aunque el video publicado para desmentir el rumor fue reportado y verificado en ubicación y fecha por agencias y medios —incluyendo verificación de la cafetería y coincidencia con imágenes del lugar—, la conversación digital no se cerró: mutó. Pasó de “está muerto” a “el video es falso” y luego a “la realidad es indescifrable”. Este desplazamiento es el corazón del problema: la desinformación moderna no siempre busca que la gente crea una mentira específica; a veces busca algo más útil para quien manipula: que la gente deje de creer en cualquier cosa.
De ahí que el episodio tenga valor editorial como advertencia. Cuando una sociedad entra en “modo sospecha”, la confianza se derrumba en cascada: en la prensa, en las instituciones, en las fuentes oficiales, incluso en la evidencia audiovisual. Y en escenarios de guerra —donde existen restricciones de seguridad, baja disponibilidad de prensa y control de imágenes— ese vacío informativo se convierte en combustible perfecto para teorías conspirativas. Reuters, por ejemplo, destacó que el acceso mediático ha sido limitado y que los videos se distribuyen desde oficinas gubernamentales en un contexto de restricciones de emergencia; esa combinación, aunque tenga explicaciones operativas, también puede alimentar la sospecha pública si no se acompaña de transparencia verificable.
Hay un punto adicional que los países deben comprender: la desinformación no viaja sola. Viaja con emociones. Rumores de muerte, golpes de estado o “pruebas” de deepfakes activan miedo, ira o euforia, y esas emociones son un acelerador algorítmico. Por eso, la respuesta no puede reducirse a desmentidos puntuales. Un desmentido es necesario, sí, pero es insuficiente cuando la mentira se monetiza con clics o se instrumentaliza para objetivos políticos. Incluso cuando verificadores aportan evidencia contextual (imágenes del lugar, publicaciones del establecimiento visitado, comparación de interiores), siempre habrá un segmento que no se moverá por pruebas, sino por identidad y tribu digital.
Este caso también deja una lección crítica: la alfabetización mediática ya es seguridad nacional. No es un slogan. En ambientes de alta tensión, un rumor puede provocar desplazamientos innecesarios, compras de pánico, estigmatización de grupos o reacciones violentas. Y si el rumor afecta a figuras de decisión, puede incidir en percepciones de estabilidad, mercados y posturas diplomáticas. La pregunta clave para cualquier Estado moderno no es si enfrentará campañas de desinformación, sino cuándo y con qué preparación institucional.
¿Qué hacer, entonces, cuando la realidad se disputa en pantallas?
Primero, fortalecer el “triángulo de verificación”: fuentes oficiales con trazabilidad (metadatos, registros), medios responsables y verificadores independientes. Cuando la verificación se hace visible —cómo se comprobó el lugar, la fecha, la continuidad del evento— el ciudadano recupera un mapa de confianza, aunque no sea perfecto. Las piezas que documentan verificación contextual (como coincidencia del interior del local y publicaciones del mismo día) son un modelo útil.
Segundo, protocolos de crisis comunicacional en tiempo real. En contextos de alta tensión, el silencio prolongado crea vacío; el vacío lo llena la especulación. No se trata de propaganda, sino de gobernanza informativa: comunicados frecuentes, comparecencias con validación cruzada y acceso a preguntas verificables. Cuando la comunicación institucional se reduce a “clips”, la audiencia se vuelve más vulnerable a narrativas alternativas que prometen “la verdad oculta”.
Tercero, educación digital práctica para la ciudadanía. No talleres teóricos; herramientas simples: (1) buscar confirmación en más de una fuente, (2) sospechar de capturas sin enlace original, (3) revisar si verificadores ya trataron el tema, (4) diferenciar “posible” de “probable”. La desinformación se combate con hábitos, no solo con comunicados. Casos como el rumor de muerte difundido y luego desmentido muestran por qué esos hábitos importan.
Cuarto, responsabilidad de plataformas y etiquetado transparente. Cuando la IA entra al debate, la plataforma debe reducir el margen de ambigüedad: contexto sobre el origen del video, fecha de publicación, etiquetas consistentes, y fricción algorítmica para contenidos no verificados. Si no, ocurre lo que ya estamos viendo: incluso desmentidos terminan alimentando la conversación conspirativa (“si lo niegan, es porque es verdad”).
Al final, este episodio no trata solo de una burla ante rumores: trata de una guerra paralela, la que se libra en el ecosistema de información. Y esa guerra tiene un objetivo estratégico: controlar percepciones, erosionar confianza y condicionar decisiones. La gran amenaza del “efecto IA” no es únicamente que existan deepfakes; es que, con o sin deepfakes, el ciudadano común se acostumbre a pensar que nada es verificable. Y cuando una sociedad se instala en ese relativismo, pierde su defensa más importante: el criterio.
La conclusión es incómoda, pero necesaria: en la era digital, la verdad necesita infraestructura. Infraestructura de verificación, de transparencia, de educación mediática y de responsabilidad tecnológica. Porque si la mentira se vuelve tendencia y la duda se vuelve cultura, la democracia —y la seguridad— quedan a merced del algoritmo.
.....
Noticia relacionada:
Benjamin Netanyahu publicó un video en el que ironiza sobre los rumores de su muerte
— LuisOrlando Díaz Vólquez (@GUASABARAeditor) March 16, 2026
La publicación en redes sociales muestra al jefe del gobierno israelí desmintiendo versiones difundidas en plataformas digitales y respondiendo con humor a especulaciones sobre su estado de…
✅ Benjamin Netanyahu está vivo.
Los rumores sobre su supuesta muerte son falsos y han sido desmentidos oficialmente.
Evidencia comprobada
- El propio Benjamin Netanyahu publicó un video el 15 de marzo de 2026 respondiendo de forma irónica a los rumores sobre su muerte, grabado en un café en Israel, demostrando que se encuentra con vida y activo públicamente. [timesofisrael.com]
- Reuters confirmó que Netanyahu difundió ese video específicamente para desmentir versiones provenientes de redes sociales y medios iraníes que aseguraban falsamente que había muerto en un ataque. [yahoo.com]
- Fact-checks independientes (Yahoo News, Newsweek, Times of Israel) verificaron que:
- No hubo ningún comunicado oficial anunciando su muerte.
- Capturas de pantalla atribuidas a la cuenta oficial del Primer Ministro eran falsificadas.
- Videos virales que alegaban señales de “IA” (como el rumor de “seis dedos”) fueron manipulaciones o ilusiones ópticas, no pruebas reales. [newsweek.com], [news.meaww.com]
Conclusión
📌 Benjamin Netanyahu vive y continúa ejerciendo funciones públicas.
Las versiones sobre su fallecimiento forman parte de una campaña de desinformación, ampliamente documentada y desmentida por fuentes oficiales, agencias internacionales y verificadores de hechos.
.....
Benjamin Netanyahu está vivo: desinformación y verificación en tiempo real
Benjamin Netanyahu vive y se encuentra activo, pese a la circulación de rumores falsos en redes sociales y plataformas digitales que afirmaban su supuesta muerte en el contexto de la escalada militar en Oriente Medio. Estas versiones, amplificadas principalmente desde cuentas no verificadas y medios alineados con la narrativa iraní, fueron desmentidas de manera directa y pública por el propio primer ministro israelí, quien el 15 de marzo de 2026 difundió un video grabado en un café en Israel, ironizando sobre las teorías conspirativas y confirmando visualmente su presencia y normalidad. [timesofisrael.com]
Agencias internacionales y medios de verificación independientes corroboraron que no existe ningún comunicado oficial, parte médico ni anuncio institucional que sustente la versión de su fallecimiento. Reuters confirmó que el video fue publicado específicamente para contrarrestar una campaña de desinformación que incluía imágenes manipuladas y capturas de pantalla falsificadas atribuidas a cuentas oficiales del Gobierno israelí. Asimismo, verificadores como Newsweek y Yahoo News concluyeron que los elementos utilizados para sembrar dudas —incluidos videos editados y acusaciones de uso de inteligencia artificial— carecen de sustento factual y responden a patrones clásicos de guerra informativa en escenarios de conflicto. [yahoo.com] [newsweek.com]
En consecuencia, no hay ninguna duda razonable sobre el estado vital de Benjamin Netanyahu. El caso ilustra cómo, en contextos de alta tensión geopolítica, la desinformación puede operar como un instrumento estratégico para generar confusión, erosionar la credibilidad institucional y manipular la percepción pública, haciendo indispensable la verificación con fuentes oficiales y medios internacionales confiables.
....
Cuando la mentira se vuelve tendencia: rumores de muerte, guerra y el “efecto IA”
Un marco de política pública para la integridad informativa y la resiliencia social
Por Luis Orlando Díaz Vólquez
Resumen | En escenarios de conflicto, la información deja de ser un insumo neutral y pasa a operar como un espacio de confrontación estratégica, donde la desinformación puede erosionar la confianza pública, alterar conductas colectivas y elevar la probabilidad de decisiones de alto riesgo. Este paper examina el episodio reciente de rumores sobre la supuesta muerte del primer ministro israelí Benjamin Netanyahu y su desmentido público mediante un video, como “caso-síntoma” de un fenómeno más amplio: la fabricación de plausibilidad en el ecosistema digital y la expansión del “efecto IA”, entendido como la instalación social de la duda permanente sobre la autenticidad de la evidencia audiovisual. Reuters reportó que Netanyahu publicó un video el 15 de marzo de 2026 para contrarrestar rumores difundidos por medios estatales iraníes y amplificados en redes, y que la agencia verificó la ubicación y la fecha mediante contraste con imágenes del lugar y publicaciones del establecimiento. [usnews.com], [uk.news.yahoo.com]
A partir de análisis documental y un enfoque de teoría del cambio, se propone una arquitectura de políticas públicas orientada al Poder Ejecutivo para fortalecer la “infraestructura de la verdad”: trazabilidad institucional, protocolos de comunicación de crisis, alfabetización mediática como componente de seguridad nacional, responsabilidad y transparencia de plataformas, y adopción progresiva de estándares técnicos de procedencia (provenance) y autenticidad de contenidos. La pertinencia estratégica es consistente con diagnósticos internacionales que ubican la desinformación entre los principales riesgos contemporáneos para la cohesión social y la gobernanza, como lo destaca el Global Risks Report 2025 del Foro Económico Mundial, que sitúa la desinformación entre los riesgos de corto plazo más críticos. [weforum.org], [reliefweb.int]
El paper argumenta que la respuesta pública no puede limitarse a desmentidos puntuales. La desinformación moderna —especialmente cuando se apoya en narrativas de “deepfakes” y sospechas de contenido sintético— busca, con frecuencia, no solo instalar una mentira específica, sino degradar la posibilidad misma de acordar hechos compartidos, debilitando la deliberación democrática y la efectividad estatal. Esta lógica coincide con marcos analíticos como “Truth Decay” (RAND), que describen la disminución del papel de los hechos y el análisis en la vida pública, el aumento del peso de la opinión sobre la evidencia y la caída de la confianza en fuentes tradicionales de información. [rand.org], [rand.org]
Palabras clave: desinformación; integridad informativa; deepfakes; inteligencia artificial; resiliencia social; comunicación de crisis; alfabetización mediática; seguridad nacional; gobernanza digital; trazabilidad de contenidos.
1. Introducción: del rumor como anécdota al rumor como arma
La política y la guerra siempre han convivido con el rumor. Lo novedoso no es su existencia, sino su capacidad contemporánea de adquirir escala, velocidad y apariencia de prueba en cuestión de minutos, a menudo con costos estratégicos. El Global Risks Report 2025 del Foro Económico Mundial identifica la desinformación como un riesgo de corto plazo que erosiona confianza y alimenta inestabilidad, subrayando que la fractura de la confianza es un componente estructural del paisaje de riesgo global. En paralelo, el informe de la OCDE sobre integridad informativa enfatiza que la desinformación puede afectar áreas que van desde salud pública hasta seguridad nacional, y que una respuesta democrática requiere mejorar transparencia, rendición de cuentas y resiliencia social sin caer en control gubernamental excesivo. [weforum.org], [reliefweb.int] [espas.secu....europa.eu], [uspc-spo.p...sgroup.com]
En este entorno, la pregunta para los Estados ya no es si enfrentarán campañas de desinformación, sino cuándo y con qué preparación institucional. La OCDE, en su Survey on Drivers of Trust in Public Institutions (2024), incorpora explícitamente cómo un entorno marcado por contenido polarizante y desinformación afecta los niveles de confianza institucional, lo cual es crucial para la gobernabilidad en crisis. A la vez, UNESCO plantea que la alfabetización mediática e informacional (MIL) es un conjunto de competencias esenciales para navegar la proliferación de mis- y desinformación y la caída de la confianza en tecnologías digitales, incluida la IA. [oecd.org] [unesco.org], [unesco.org]
Este paper toma como punto de partida un episodio mediático global, pero su objetivo es práctico: ofrecer orientación al Poder Ejecutivo y tomadores de decisión sobre cómo construir resiliencia social frente a la desinformación y el “efecto IA”. La tesis central es que la verdad, en la era digital, necesita infraestructura: reglas, capacidades, estándares técnicos y hábitos ciudadanos. NIST, por ejemplo, ha sistematizado riesgos y acciones para gestionar riesgos de IA (AI RMF) y, más específicamente, para reducir riesgos del contenido sintético mediante transparencia y autenticación digital, incluyendo marcas de agua, metadatos y mecanismos de procedencia. [nist.gov], [nvlpubs.nist.gov]
2. El caso-síntoma: rumores de muerte, restricciones informativas y sospecha de IA
En marzo de 2026 circularon rumores sobre la presunta muerte o lesión de Benjamin Netanyahu, amplificados por redes sociales y medios estatales iraníes. Reuters reportó que Netanyahu publicó un video en un café para desmentir la versión, y que la agencia verificó tanto la ubicación como la fecha mediante contraste con imágenes del lugar y publicaciones del establecimiento. De forma consistente, The Times of Israel describió el video como una respuesta a teorías conspirativas sobre su muerte y a la sospecha de que una comparecencia previa habría sido generada con IA, alimentada por la narrativa viral de “seis dedos”. [usnews.com], [uk.news.yahoo.com] [timesofisrael.com], [newsweek.com]
Este episodio es instructivo por dos razones. Primero, exhibe un patrón clásico de propaganda y sensacionalismo: una afirmación explosiva, “evidencias” visuales de baja calidad (capturas o recortes), y un ecosistema de cuentas que maximizan alcance por indignación. Segundo, incorpora el componente contemporáneo más corrosivo: la disputa sobre la autenticidad de la evidencia audiovisual. Newsweek recogió cómo una lectura errónea o manipulada de un fotograma (“seis dedos”) disparó especulaciones de deepfake y reforzó el rumor, pese a la ausencia de pruebas robustas y a desmentidos oficiales. [yahoo.com], [geo.tv]
La dimensión estructural aparece cuando Reuters añade un elemento contextual: el acceso mediático a las visitas del primer ministro habría sido limitado por las condiciones de emergencia y restricciones de seguridad, con distribución de videos desde su oficina. Aunque estas restricciones pueden ser operativamente justificables, también abren espacio para que actores maliciosos presenten el vacío de verificación independiente como “prueba” de encubrimiento. La UNESCO, al proponer gobernanza de plataformas con enfoque de derechos, advierte precisamente sobre la necesidad de respuestas consistentes en contextos sensibles (elecciones, crisis) donde el riesgo de desinformación se intensifica. [usnews.com], [cadeproject.org] [weforum.org], [airc.nist.gov]
El resultado más relevante no es que “alguien creyera” el rumor, sino la mutación narrativa: de “está muerto” a “el video es falso” y, finalmente, a “la realidad es indescifrable”. Ese desplazamiento coincide con el marco de RAND sobre “Truth Decay”: el problema no siempre es una mentira concreta, sino el debilitamiento del rol social de los hechos y el aumento del cinismo epistémico, que erosiona la posibilidad de deliberación y acción colectiva. [rand.org], [rand.org]
3. Marco conceptual: desinformación, “efecto IA” e integridad informativa
Para propósitos de política pública, conviene distinguir tres capas. La primera es la desinformación como contenido falso o engañoso difundido con intención de manipular o ganar ventaja política/económica. El segundo plano es la arquitectura de amplificación: algoritmos de recomendación, incentivos comerciales y dinámicas de viralidad que premian el contenido emocional. La tercera capa es el “efecto IA”: la pérdida de confianza en la evidencia audiovisual por la disponibilidad de herramientas capaces de generar o alterar contenidos con alta verosimilitud, y por la percepción social de que “todo puede ser un deepfake”. La OCDE identifica explícitamente a la IA generativa como un factor que modifica el panorama de riesgos de desinformación y exige nuevas medidas de gobernanza e integridad informativa. [espas.secu....europa.eu], [uspc-spo.p...sgroup.com]
En este punto, la tecnología no es solo una fábrica de contenidos; también es una fábrica de incertidumbre. NIST, en su documento sobre transparencia de contenido sintético, sistematiza enfoques técnicos como marcas de agua, registro de metadatos y mecanismos de autenticación, precisamente porque el desafío no se limita a detectar “falsos”, sino a crear señales confiables de procedencia y cambios. El AI Risk Management Framework (AI RMF) de NIST, además, enfatiza la necesidad de incorporar consideraciones de confiabilidad, rendición de cuentas y transparencia en el diseño y uso de sistemas de IA. [nvlpubs.nist.gov], [nvlpubs.nist.gov] [nist.gov], [commission.europa.eu]
Desde la perspectiva de gobernanza, la respuesta estatal debe evitar el error de confundir integridad informativa con control informativo. La OCDE subraya que combatir la desinformación “nunca debe tratarse de controlar la información” y propone un enfoque equilibrado con apoyo a pluralidad informativa, transparencia y alfabetización mediática. UNESCO, en la misma línea de derechos, impulsa directrices para gobernanza de plataformas orientadas a combatir desinformación y odio salvaguardando libertad de expresión y acceso a información. [espas.secu....europa.eu], [uspc-spo.p...sgroup.com] [weforum.org], [airc.nist.gov]
4. Metodología: análisis documental y teoría del cambio orientada a Estado
Este paper utiliza análisis documental de fuentes primarias y secundarias: reportes de organismos multilaterales (WEF, OCDE, UNESCO), guías técnicas (NIST), marcos regulatorios comparados (Comisión Europea) y cobertura verificada del caso-síntoma (Reuters, Times of Israel, verificaciones mediáticas). La lógica analítica adopta una teoría del cambio: identificar insumos (capacidades institucionales, estándares, educación), actividades (protocolos, cooperación, transparencia), productos (señales de autenticidad, comunicación rápida), resultados (aumento de confianza verificable, reducción de pánico) e impacto (resiliencia democrática y social ante crisis). [weforum.org], [espas.secu....europa.eu], [nist.gov], [usnews.com] [rand.org], [nvlpubs.nist.gov]
La elección del caso Netanyahu no busca extrapolar a su contexto político específico, sino usar un ejemplo internacional reciente y altamente visible para extraer lecciones de política replicables por Estados medianos y democracias en desarrollo. Reuters ofrece un elemento metodológico crucial: la verificación de ubicación y fecha mediante triangulación con imágenes del lugar y publicaciones del establecimiento, mostrando qué significa “verificación contextual” en tiempo real. Este estándar de verificación —triangulación y trazabilidad— es una pieza clave de la infraestructura pública de verdad que aquí se propone. [usnews.com], [uk.news.yahoo.com] [nvlpubs.nist.gov], [unesco.org]
5. Anatomía de la “plausibilidad fabricada”: cómo se construye un rumor creíble
La plausibilidad fabricada se construye combinando tres elementos: (a) un disparador emocional (muerte, golpe, ataque), (b) una “prueba” visual con apariencia institucional (captura de pantalla, supuesto comunicado) y (c) una narrativa técnica que explique por qué “no hay confirmación” (restricciones mediáticas, censura, deepfakes). The Times of Israel documentó que parte del impulso vino de una captura falsificada atribuida a una cuenta oficial, un patrón frecuente en campañas de manipulación de información. Reuters, por su parte, contextualiza cómo la limitada disponibilidad de prensa y la distribución de videos desde una oficina pueden alimentar sospechas, aun cuando la razón sea seguridad. [timesofisrael.com], [newsweek.com] [usnews.com], [cadeproject.org]
La “capa IA” añade un giro: introduce una acusación difícil de refutar para el ciudadano promedio (“eso es un deepfake”), y transforma cualquier evidencia en combustible para la duda. NIST reconoce que el contenido sintético puede generar daños y riesgos que requieren enfoques de transparencia digital, precisamente para evitar que la discusión se estanque en “creo/no creo” sin herramientas verificables. La OCDE advierte que la IA generativa puede incrementar el volumen, la calidad aparente y la personalización de la desinformación, elevando el desafío para democracias y reguladores. [nvlpubs.nist.gov], [nist.gov] [espas.secu....europa.eu], [uspc-spo.p...sgroup.com]
En términos de comportamiento social, el rumor viaja con emociones. El WEF indica que la desinformación puede alimentar polarización e inestabilidad, lo que en la práctica se traduce en picos de ansiedad colectiva, conductas de pánico y presión sobre decisiones públicas. RAND, con “Truth Decay”, enfatiza que la erosión del rol de hechos y análisis conduce a parálisis política y deterioro del discurso civil, condiciones que reducen la capacidad estatal de construir consensos en crisis. [weforum.org], [reliefweb.int] [rand.org], [rand.org]
6. Implicaciones para el Estado: por qué esto es política pública y no “tema de redes”
La desinformación en crisis no es solo un problema comunicacional; es un problema de gobernanza y seguridad. Cuando se debilita la confianza en fuentes oficiales y medios verificados, se degrada la efectividad de políticas públicas: instrucciones de protección civil, campañas de salud, medidas económicas y mensajes diplomáticos pierden tracción. La OCDE conecta directamente el entorno de desinformación con la confianza en instituciones y destaca que reforzar la integridad informativa requiere medidas de transparencia, pluralidad y resiliencia social. El WEF sitúa la desinformación como riesgo de corto plazo capaz de socavar gobernanza y cooperación, que son justamente las capacidades críticas para gestionar crisis multidimensionales. [oecd.org], [espas.secu....europa.eu] [weforum.org], [reliefweb.int]
En democracias con recursos limitados, el costo relativo puede ser mayor: un rumor puede alterar mercados, producir compras de pánico o afectar reputación internacional. Además, si la evidencia audiovisual pierde credibilidad social, la comunicación pública se vuelve menos efectiva. NIST propone que la mitigación requiere mecanismos técnicos de transparencia de contenido y gestión de riesgos de IA incorporados a procesos institucionales, no solo a empresas tecnológicas. UNESCO agrega que la alfabetización mediática e informacional debe ser una estrategia nacional, integrada a políticas educativas y de ciudadanía digital, para construir capacidades sostenidas de pensamiento crítico. [nvlpubs.nist.gov], [nist.gov] [unesco.org], [unesco.org]
La experiencia comparada sugiere que la gobernanza de plataformas también importa. La Comisión Europea, en su marco de integridad informativa, vincula el Digital Services Act (DSA) con obligaciones de transparencia, evaluación de riesgos y medidas de mitigación para plataformas grandes, incluyendo riesgos como desinformación y manipulación electoral. Además, el propio ecosistema regulatorio europeo comenzó a producir reportes anuales sobre riesgos sistémicos en plataformas muy grandes, destacando tecnologías emergentes como la IA generativa como parte del paisaje de riesgos. [ec.europa.eu], [digital-st....europa.eu] [c2pa.org], [ec.europa.eu]
7. Teoría del cambio: la “infraestructura de la verdad” como política de resiliencia
Insumos: capacidades institucionales de verificación, marcos normativos de transparencia, acuerdos con plataformas, estándares técnicos de autenticidad, y educación ciudadana. UNESCO sostiene que las competencias MIL permiten navegar el entorno digital con criticidad, y que los Estados deben apoyar políticas y estrategias nacionales de alfabetización mediática. NIST provee un marco aplicable para gestionar riesgos de IA y un compendio de enfoques técnicos para transparencia de contenido sintético. [unesco.org], [unesco.org] [nist.gov], [nvlpubs.nist.gov]
Actividades: protocolos de comunicación de crisis, “triangulación visible” de la verificación, despliegue de señales de procedencia y autenticidad, y cooperación internacional. El caso Reuters muestra cómo la verificación contextual de ubicación y fecha puede presentarse como parte de la narrativa pública para reducir incertidumbre. En paralelo, estándares industriales como C2PA proponen “Content Credentials” como metadatos firmados criptográficamente que registran origen y ediciones, actuando como una “etiqueta nutricional” para contenidos digitales, lo que podría integrarse gradualmente en comunicación pública y ecosistemas mediáticos. [usnews.com], [uk.news.yahoo.com] [c2pa.org], [spec.c2pa.org]
Productos: mensajes oficiales trazables, repositorios de evidencia verificada, etiquetado de autenticidad, y campañas de hábitos de verificación. La Comisión Europea describe que el DSA crea un marco de transparencia y rendición de cuentas que incluye obligaciones de evaluación de riesgo y mitigación para plataformas muy grandes, lo que sugiere que la política pública puede exigir mecanismos verificables en vez de confiar en autorregulación informal. La OCDE coincide en que las estrategias nacionales integrales siguen siendo la excepción, lo que vuelve prioritario institucionalizar enfoques que fortalezcan la integridad informativa en democracia. [digital-st....europa.eu], [ec.europa.eu] [espas.secu....europa.eu], [uspc-spo.p...sgroup.com]
Resultados e impacto: mayor confianza social en información crítica durante crisis, reducción de pánico y mayor cumplimiento de instrucciones públicas, con beneficios en seguridad, salud y estabilidad. El WEF conecta explícitamente desinformación con erosión de confianza y riesgos de inestabilidad, mientras RAND subraya que sin acuerdo mínimo sobre hechos se dificulta el diseño e implementación de políticas efectivas. [weforum.org], [rand.org]
8. Propuesta para el Poder Ejecutivo: cinco pilares de política pública (aplicables a República Dominicana)
Pilar 1: Gobernanza nacional de integridad informativa (sin censura, con evidencia)
Una estrategia nacional debe partir de un principio rector: reforzar integridad informativa no equivale a controlar la conversación pública. La OCDE insiste en un enfoque “positivo pero no intrusivo”, orientado a transparencia, pluralidad, apoyo a periodismo independiente y alfabetización, evitando mecanismos que deriven en control estatal de la información. UNESCO, por su parte, propone directrices de gobernanza de plataformas basadas en derechos, con debida diligencia y evaluación de impactos en derechos humanos. [espas.secu....europa.eu], [uspc-spo.p...sgroup.com] [weforum.org], [airc.nist.gov]
En práctica ejecutiva, esto supone crear una coordinación interinstitucional (comunicación gubernamental, protección civil, ciberseguridad, educación, reguladores) con mandato de preparar, ensayar y ejecutar respuestas informativas en crisis. La OCDE aporta evidencia de que el entorno de desinformación afecta la confianza en instituciones, lo que justifica integrar integridad informativa como parte de políticas de confianza y gobernanza. RAND complementa que la caída del rol de hechos y análisis impone costos sobre el sistema político, incluida parálisis y deterioro del discurso civil, por lo que la respuesta debe ser sistémica. [oecd.org], [espas.secu....europa.eu] [rand.org], [rand.org]
Pilar 2: Protocolos de comunicación de crisis en tiempo real (“vacío cero”)
El vacío informativo es el aliado natural del rumor. El caso Reuters muestra que incluso con un desmentido, el debate puede migrar hacia la sospecha de IA, por lo que la comunicación debe ser rápida, frecuente y verificable. UNESCO plantea que en contextos sensibles (crisis, elecciones) deben existir medidas consistentes que protejan derechos y reduzcan el margen de propagación de desinformación. [usnews.com], [cadeproject.org] [weforum.org], [airc.nist.gov]
Un protocolo ejecutivo efectivo incorpora comparecencias periódicas, acceso a preguntas verificables, repositorios de evidencia y “trazabilidad visible” (cómo se verificó, con qué fuentes, qué se sabe y qué no). NIST recomienda enfoques de transparencia digital —metadatos y autenticación— para reducir riesgos del contenido sintético, lo que es especialmente útil para comunicación institucional basada en imagen y video. En el plano regulatorio comparado, el DSA europeo se apoya en obligaciones de transparencia y evaluación de riesgos, ofreciendo un precedente de cómo convertir “buenas intenciones” en prácticas auditables. [nvlpubs.nist.gov], [nist.gov] [digital-st....europa.eu], [ec.europa.eu]
Pilar 3: Alfabetización mediática como seguridad nacional y resiliencia social
La alfabetización mediática e informacional debe salir del terreno declarativo. UNESCO sostiene que MIL es esencial para enfrentar mis- y desinformación y navegar tecnologías como la IA, y que los Estados deben promover políticas y estrategias nacionales integradas. La OCDE converge al recomendar fortalecimiento de resiliencia social mediante habilidades de consumo crítico, sin sustituir el pluralismo ni la libertad de expresión. [unesco.org], [unesco.org] [espas.secu....europa.eu], [uspc-spo.p...sgroup.com]
Para un país como República Dominicana, esto implica integrar competencias prácticas en currículo escolar, formación docente, campañas públicas y programas comunitarios, con énfasis en hábitos simples de verificación. La evidencia de RAND sobre “Truth Decay” sugiere que cuando la línea entre opinión y hecho se difumina, aumentan la polarización y la parálisis, por lo que la educación cívica y mediática es inversión en gobernabilidad. Además, el WEF alerta que la desinformación amenaza cohesión social y gobernanza, reforzando el argumento de que alfabetización mediática es un componente de resiliencia nacional. [rand.org], [rand.org] [weforum.org], [reliefweb.int]
Pilar 4: Estándares técnicos de autenticidad: procedencia, metadatos y “credenciales de contenido”
La respuesta moderna debe incluir tecnología para defender la verificación. NIST describe rutas técnicas para transparencia de contenido sintético, incluyendo marcas de agua, registro de metadatos y autenticación, precisamente para ofrecer señales verificables de procedencia y cambios. En el plano industrial, C2PA propone un estándar abierto de procedencia y autenticidad con metadatos firmados criptográficamente (“Content Credentials”) que permiten rastrear origen y ediciones, buscando mejorar transparencia en el ecosistema de contenidos. [nvlpubs.nist.gov], [nvlpubs.nist.gov] [c2pa.org]
La política pública puede promover adopción gradual de estas herramientas en comunicación gubernamental (ruedas de prensa, piezas audiovisuales, campañas de emergencia), en alianza con medios, universidades y sector privado. En la práctica, esto crea una asimetría favorable: la evidencia oficial no solo “dice”, sino que “muestra” su historia verificable. NIST subraya que la gestión de riesgos de IA requiere enfoques organizacionales y técnicos que incorporen confiabilidad y transparencia en sistemas y productos. Y el DSA europeo confirma la tendencia internacional hacia exigencias de transparencia y mitigación de riesgos sistémicos en plataformas, lo que fortalece la idea de que la autenticidad verificable se está convirtiendo en norma. [nist.gov], [commission.europa.eu] [c2pa.org], [digital-st....europa.eu]
Pilar 5: Responsabilidad y cooperación con plataformas: transparencia, fricción y auditoría
La infraestructura de la verdad no se completa sin plataformas. El marco europeo destaca obligaciones para plataformas grandes en materia de transparencia, algoritmos, reportes y mitigación basada en riesgo, con el objetivo de crear un entorno en línea más seguro y confiable. Además, la Comisión Europea y coordinadores digitales publicaron reportes sobre riesgos sistémicos que incluyen la propagación de contenido ilegal o dañino y el impacto de tecnologías emergentes como la IA generativa. [digital-st....europa.eu], [ec.europa.eu] [c2pa.org], [ec.europa.eu]
En términos ejecutivos, esto se traduce en acuerdos de cooperación para etiquetado contextual, mecanismos rápidos de reporte en crisis, priorización de fuentes verificadas en emergencias, y acceso a datos agregados para investigación pública responsable. La OCDE insiste en incrementar la rendición de cuentas y transparencia de plataformas sin debilitar libertades, y advierte que estrategias nacionales integrales siguen siendo poco comunes; por ello, institucionalizar un modelo de cooperación y supervisión es una ventaja competitiva de gobernanza. UNESCO aporta el componente de derechos y debida diligencia como brújula para plataformas y reguladores. [espas.secu....europa.eu], [uspc-spo.p...sgroup.com] [weforum.org], [airc.nist.gov]
9. Indicadores y sistema de seguimiento: medir confianza, velocidad y trazabilidad
Una política pública eficaz requiere medición. La OCDE enfatiza que la desinformación deteriora el entorno de debate basado en evidencia y la confianza institucional, por lo que los indicadores deben capturar tanto desempeño comunicacional como confianza social. NIST, al proponer enfoques de transparencia de contenido sintético, habilita indicadores técnicos (porcentaje de piezas con metadatos firmados, verificación exitosa de procedencia, etc.). [oecd.org], [espas.secu....europa.eu] [nvlpubs.nist.gov]
A continuación se sugiere un tablero mínimo (adaptable a capacidades nacionales), con enfoque ejecutivo:
| Dimensión | Indicador (ejemplos) | Racionalidad de política |
|---|---|---|
| Respuesta en crisis | Tiempo promedio desde rumor viral hasta comunicado verificable; frecuencia de actualizaciones oficiales | Reducir “vacío informativo” que alimenta especulación, como ilustra el caso de rumores y desmentido verificado por Reuters. [usnews.com], [uk.news.yahoo.com] |
| Trazabilidad | Proporción de contenido oficial con procedencia y metadatos verificables; adopción de estándares (p. ej., credenciales de contenido) | NIST recomienda metadatos, autenticación y enfoques de transparencia; C2PA estandariza credenciales firmadas. [nvlpubs.nist.gov], [c2pa.org] |
| Confianza | Índices periódicos de confianza en información oficial en crisis; percepción de credibilidad de fuentes | La OCDE vincula entorno de desinformación con confianza en instituciones; RAND destaca costos de degradación de hechos. [oecd.org], [rand.org] |
| Resiliencia ciudadana | Medidas de alfabetización mediática (competencias MIL); capacidad de identificar capturas falsas y verificar fuentes | UNESCO promueve MIL como conjunto esencial de habilidades frente a mis/desinformación e IA. [unesco.org], [unesco.org] |
| Ecosistema plataforma | Reportes de transparencia, cooperación en crisis, fricción para contenido no verificado, auditorías y evaluación de riesgos | El DSA y la política europea enfatizan transparencia, evaluación de riesgos y mitigación en plataformas grandes. [digital-st....europa.eu], [ec.europa.eu] |
10. Hoja de ruta de implementación (12 meses): del diseño a la capacidad operativa
Una estrategia ejecutiva realista debe secuenciar. En un horizonte de 12 meses, el objetivo no es “derrotar” la desinformación, sino elevar la capacidad estatal y social para resistirla y reducir daños. La OCDE advierte que las estrategias nacionales siguen siendo la excepción; por eso, el primer hito es institucionalizar una arquitectura mínima que sobreviva al ciclo noticioso. UNESCO sostiene que las políticas de MIL deben integrarse a marcos existentes de educación, acceso a información y ciudadanía digital, lo cual permite escalabilidad. [espas.secu....europa.eu], [uspc-spo.p...sgroup.com] [unesco.org], [unesco.org]
En el trimestre inicial, el Ejecutivo debería establecer coordinación interinstitucional, mapa de riesgos (qué rumores son más dañinos y probables), y protocolos de “comunicación de crisis verificable” con estándar de trazabilidad. El caso Reuters muestra que la verificación contextual puede hacerse con métodos prácticos (comparación de interiores, publicaciones del lugar), pero requiere capacidad y procesos. En paralelo, debe iniciarse piloto de autenticidad en piezas oficiales, alineado con guías de NIST sobre transparencia de contenido sintético y con estándares de procedencia como C2PA. [usnews.com], [uk.news.yahoo.com] [nvlpubs.nist.gov], [c2pa.org]
En el segundo trimestre, el foco es expansión: alianzas con medios y universidades para verificación, entrenamiento de portavoces en “verificación visible” y campañas de alfabetización mediática con enfoque práctico. UNESCO ofrece marcos para MIL y para políticas de alfabetización a escala, útiles para institucionalizar contenidos y medición. La OCDE recomienda fortalecer resiliencia ciudadana y apoyar pluralidad informativa, lo que sugiere financiar iniciativas de verificación independiente y periodismo de calidad sin interferencia editorial estatal. [unesco.org], [unesco.org] [espas.secu....europa.eu], [uspc-spo.p...sgroup.com]
En el tercer y cuarto trimestre, la meta es madurez operacional: tableros de indicadores, ejercicios de simulación (“table-top exercises”) con escenarios de rumor, y acuerdos formales con plataformas para respuesta en emergencias. La tendencia comparada europea muestra que transparencia, acceso a datos y mitigación de riesgos sistémicos se están convirtiendo en estándares regulatorios; incluso sin replicar el DSA, la lógica de auditoría y reporte es exportable como buena práctica. A la vez, la adopción de estándares técnicos debe ampliarse para que la autenticidad verificable sea rutina, no excepción, en comunicación pública. [digital-st....europa.eu], [c2pa.org] [nvlpubs.nist.gov]
11. Riesgos y salvaguardas democráticas: cómo evitar que “integridad” se convierta en control
Cualquier política de integridad informativa enfrenta un dilema: si se diseña mal, puede abrir la puerta a restricciones indebidas de expresión. La OCDE es explícita: combatir desinformación no debe ser controlar información, y el enfoque debe preservar libertad de expresión y derechos humanos. UNESCO, desde un enfoque de derechos, propone debida diligencia y reguladores independientes, con transparencia y mecanismos de rendición de cuentas que reduzcan arbitrariedad. [espas.secu....europa.eu], [uspc-spo.p...sgroup.com] [weforum.org], [airc.nist.gov]
La salvaguarda clave es la “evidencia” y la “trazabilidad”, no la “prohibición”. El Ejecutivo debe priorizar más información verificable, no menos discusión pública. NIST propone enfoques técnicos que permiten verificar procedencia sin necesidad de suprimir contenido, mientras C2PA provee un estándar para registrar historia de creación y edición. En términos de legitimidad, la confianza no se impone: se gana con procesos transparentes y consistentes, un punto alineado con los hallazgos de la OCDE sobre los drivers de confianza institucional en entornos de desinformación. [nvlpubs.nist.gov], [spec.c2pa.org] [oecd.org], [espas.secu....europa.eu]
12. Conclusiones: la verdad necesita infraestructura
El episodio de rumores sobre la muerte de un jefe de gobierno y la discusión sobre la autenticidad de su evidencia audiovisual es una advertencia sobre la época. Reuters documentó que el desmentido requirió verificación contextual de lugar y fecha, mientras medios y verificadores reportaron que narrativas sobre IA y “deepfakes” alimentaron sospechas incluso ante evidencia pública. Esto confirma el núcleo del problema: la disputa no es solo sobre qué ocurrió, sino sobre qué es verificable. [usnews.com], [timesofisrael.com]
La respuesta estatal no puede consistir en “desmentir más rápido” de forma improvisada. Debe construirse una infraestructura: protocolos, educación, estándares de procedencia, cooperación con plataformas, y un marco de gobernanza basado en derechos. UNESCO impulsa MIL como política estructural; la OCDE propone un enfoque equilibrado de integridad informativa; NIST ofrece guías técnicas para transparencia de contenido sintético; y el WEF advierte que la desinformación es un riesgo mayor para cohesión y gobernanza. [unesco.org], [espas.secu....europa.eu], [nvlpubs.nist.gov], [weforum.org]
La gran amenaza del “efecto IA” no es únicamente la existencia de deepfakes, sino la normalización del cinismo epistémico: la idea de que nada puede comprobarse. RAND denomina a esta deriva “Truth Decay” y muestra sus consecuencias sobre la deliberación pública y la capacidad de hacer política basada en evidencia. Por ello, para el Poder Ejecutivo, fortalecer integridad informativa es fortalecer resiliencia nacional: proteger la confianza como un activo estratégico, tan importante como la infraestructura física en tiempos de crisis. [rand.org], [rand.org]
Referencias (estilo APA)
Coalition for Content Provenance and Authenticity (C2PA). (s. f.). C2PA: Verifying media content sources. https://c2pa.org/ [c2pa.org]
European Commission. (2024). Questions and answers on the Digital Services Act (DSA). https://ec.europa.eu/commission/presscorner/api/files/document/print/en/qanda_20_2348/QANDA_20_2348_EN.pdf [digital-st....europa.eu]
European Commission. (2025, 20 noviembre). Digital Services Act report lays out landscape of systemic risks online. https://digital-strategy.ec.europa.eu/en/news/digital-services-act-report-lays-out-landscape-systemic-risks-online [c2pa.org]
NIST. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf [commission.europa.eu]
NIST. (2024). Reducing Risks Posed by Synthetic Content: An Overview of Technical Approaches to Digital Content Transparency (NIST AI 100-4). https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-4.pdf [nvlpubs.nist.gov]
OECD. (2024). Facts not fakes: Tackling disinformation, strengthening information integrity. OECD Publishing. (Referencia catalogada). [uspc-spo.p...sgroup.com]
OECD. (2024). OECD Survey on Drivers of Trust in Public Institutions – 2024 Results. https://www.oecd.org/en/publications/oecd-survey-on-drivers-of-trust-in-public-institutions-2024-results_9a20554b-en.html [oecd.org]
RAND Corporation. (2018). Truth Decay: An initial exploration of the diminishing role of facts and analysis in American public life (RR-2314). https://www.rand.org/pubs/research_reports/RR2314.html [rand.org]
Reuters. (2026, 15 marzo). Netanyahu posts video in response to Iran rumours that he is dead. (Reimpresión/host: U.S. News). https://www.usnews.com/news/world/articles/2026-03-15/netanyahu-posts-video-in-response-to-iran-rumours-that-he-is-dead [usnews.com]
The Times of Israel. (2026, 15 marzo). In video, Netanyahu mocks conspiracy theories about his death. https://www.timesofisrael.com/in-video-netanyahu-mocks-conspiracy-theories-about-his-death/ [timesofisrael.com]
UNESCO. (s. f.). Media and Information Literacy (MIL). https://www.unesco.org/en/media-information-literacy [unesco.org]
World Economic Forum. (2025, 15 enero). Global Risks Report 2025: Conflict, Environment and Disinformation Top Threats. https://www.weforum.org/press/2025/01/global-risks-report-2025-conflict-environment-and-disinformation-top-threats/ [weforum.org]
.......................
Cuando la mentira se vuelve tendencia: rumores de muerte, guerra y el “efecto IA”
Por Luis Orlando Díaz Vólquez
Hay momentos en los que un rumor deja de ser una simple distorsión del día a día y se convierte en un hecho político por sí mismo. No porque sea verdadero, sino porque logra condicionar percepciones, alterar decisiones y empujar a instituciones y sociedades a reaccionar en tiempo real. En escenarios de tensión internacional, la información ya no opera como un insumo neutral: se transforma en un campo de disputa estratégica donde la manipulación puede erosionar la confianza pública con la misma eficacia con la que un ataque puede dañar infraestructura crítica. En ese contexto, la desinformación no es un “tema de redes”; es un problema de gobernanza, de seguridad y de resiliencia nacional. [weforum.org], [oecd.org]
El episodio reciente de los rumores sobre la supuesta muerte o lesión del primer ministro israelí Benjamin Netanyahu ilustra, con nitidez, cómo funciona la nueva economía de la plausibilidad fabricada. El 15 de marzo de 2026, Reuters reportó que Netanyahu publicó un video en un café, bromeando sobre la versión de que estaba “muerto”, luego de que medios estatales iraníes y redes sociales amplificaran la narrativa. La agencia verificó la ubicación y la fecha contrastando el interior del local con imágenes de archivo y corroborando el momento a través de publicaciones del propio establecimiento. Ese detalle —la verificación contextual de lugar y tiempo— es la lección más relevante: en la era digital, la verdad no basta con declararla; hay que demostrarla con trazabilidad. [usnews.com]
Lo que convierte este caso en un “caso-síntoma” no es el chisme en sí, sino su mutación. Primero circula la afirmación explosiva (“está muerto”). Después, cuando aparece una evidencia audiovisual para refutarla, la conversación migra hacia una acusación aún más corrosiva: “el video es falso”, “es IA”, “es un deepfake”. The Times of Israel describió cómo el propio Netanyahu aprovechó el video para ridiculizar la teoría de que una comparecencia previa había sido generada con inteligencia artificial, alimentada por lecturas virales de fotogramas y por la obsesión contemporánea con “detalles técnicos” que el ciudadano promedio no puede verificar por sí solo. Y allí ocurre el daño mayor: el paso de una mentira concreta a una duda generalizada sobre la posibilidad de acordar hechos compartidos. [timesofisrael.com], [usnews.com]
Ese desplazamiento es el corazón del “efecto IA”: la instalación social de la sospecha permanente sobre la autenticidad de la evidencia, especialmente audiovisual. No se trata únicamente de que existan herramientas capaces de generar contenido sintético convincente; se trata de que la percepción de esa capacidad —real o exagerada— sirve para deslegitimar cualquier prueba. En otras palabras, la IA no solo puede fabricar imágenes o voces; también puede fabricar incertidumbre. Y cuando la incertidumbre se vuelve norma, la confianza se convierte en el recurso más escaso, justo cuando más se necesita para gestionar crisis. [nvlpubs.nist.gov], [weforum.org]
El Foro Económico Mundial ha advertido que la desinformación y la misinformation se mantienen entre los principales riesgos de corto plazo y que su efecto erosiona la cohesión social y la gobernanza al degradar la confianza, amplificar divisiones y dificultar la cooperación. En un mundo “fracturado”, donde los conflictos y la polarización elevan la temperatura, el espacio informativo se vuelve una extensión del conflicto. La desinformación no solo “confunde”; puede movilizar emociones, inducir pánico, presionar decisiones públicas y abrir oportunidades para actores que se benefician del caos. Por eso, tratarla como un problema menor equivale a aceptar una vulnerabilidad estratégica. [weforum.org], [reliefweb.int]
Ahora bien, el Estado democrático enfrenta un dilema delicado: defender la integridad informativa sin caer en control informativo. Combatir campañas de manipulación no puede convertirse en excusa para restringir libertades, ni para reemplazar el debate plural por una verdad oficial impuesta. Sin embargo, reconocer ese riesgo no debe paralizarnos. Al contrario, obliga a diseñar políticas públicas basadas en evidencia, transparencia y derechos. La clave no es “censurar más”, sino construir una infraestructura de verificación que haga más difícil y costosa la mentira, y más accesible y confiable la verdad. [oecd.org], [unesco.org]
Esa infraestructura tiene un componente técnico, otro institucional y otro ciudadano. En lo técnico, NIST ha sistematizado enfoques para reducir riesgos del contenido sintético: marcas de agua, registro de metadatos, autenticación y mecanismos de transparencia que permitan rastrear procedencia y cambios. No es magia ni solución perfecta, pero sí un paso decisivo: pasar del “créeme” al “verifícalo”. Cuando los contenidos oficiales incorporan señales robustas de procedencia —y cuando medios y plataformas pueden leerlas y exhibirlas— la conversación pública deja de depender exclusivamente de la fe o del carisma del vocero. En tiempos de deepfakes, la credibilidad necesita criptografía, estándares y hábitos verificables. [nvlpubs.nist.gov], [usnews.com]
En lo institucional, la lección del caso Reuters es contundente: la verificación contextual debe formar parte del protocolo, no ser un esfuerzo improvisado. Si la narrativa adversaria explota vacíos, la respuesta debe operar con un principio simple: “vacío cero”. Cuando un rumor de alto impacto se vuelve tendencia, cada hora sin información verificable es terreno ganado por la especulación. No se trata de hablar por hablar; se trata de actualizar con frecuencia, declarar lo que se sabe y lo que no se sabe, y ofrecer evidencia trazable. La transparencia no es una pose: es una táctica de resiliencia. [usnews.com], [weforum.org]
En lo ciudadano, el componente más decisivo se llama alfabetización mediática e informacional. UNESCO ha sostenido que estas competencias son esenciales para que las personas puedan acceder, evaluar, comprender y usar información de forma crítica y ética, y que alcanzar ese objetivo exige políticas y estrategias nacionales, no campañas episódicas. La alfabetización mediática hoy es una herramienta de autoprotección cívica: reduce la vulnerabilidad ante narrativas emocionales, enseña a distinguir evidencia de opinión y crea hábitos de verificación mínima. Si el “efecto IA” instala la idea de que todo es falsificable, la alfabetización enseña el camino inverso: no todo se cree, pero tampoco todo se descarta; se contrasta. [unesco.org]
Esto importa especialmente para países como la República Dominicana, donde la estabilidad social y económica depende, en buena medida, de la confianza en instituciones, de la credibilidad de la comunicación pública y de la capacidad de gestionar crisis sin que la ansiedad colectiva se convierta en pánico. Un rumor bien dirigido puede afectar reputación internacional, turismo, mercados, clima de inversión y cohesión interna. Y en momentos críticos —fenómenos naturales, emergencias sanitarias, tensiones regionales o crisis de seguridad— la obediencia a instrucciones públicas depende de que la gente confíe en la fuente. Cuando la fuente se percibe como dudosa o manipulable, el Estado pierde tracción operativa. [oecd.org], [weforum.org]
La OCDE, al estudiar los “drivers” de confianza en las instituciones públicas, incorpora explícitamente cómo un entorno informativo marcado por contenido polarizante y desinformación afecta la confianza. Ese vínculo debería bastar para ubicar la integridad informativa como un objetivo de política pública: no para “ganar la conversación”, sino para proteger una condición de gobernabilidad. Porque cuando baja la confianza, sube el costo de implementar cualquier política: desde un plan educativo hasta una reforma económica, desde una evacuación ante tormentas hasta una campaña de vacunación. La confianza, en suma, es infraestructura invisible. [oecd.org]
¿Qué hacer, entonces, desde el Poder Ejecutivo, sin caer en la tentación del control? Primero, reconocer que la respuesta no puede limitarse a desmentidos puntuales. Las mentiras modernas buscan algo más sofisticado: degradar la idea misma de verdad compartida. Segundo, crear coordinación interinstitucional para comunicación de crisis y verificación rápida, con capacidades técnicas y procedimientos entrenados. Tercero, adoptar progresivamente estándares de procedencia y autenticidad en la producción audiovisual del Estado, de modo que cada pieza oficial traiga consigo su “historia verificable”. Cuarto, impulsar alfabetización mediática en el sistema educativo, en formación docente y en campañas públicas sostenidas, con enfoque práctico y medición. Y quinto, establecer mecanismos de cooperación con plataformas bajo principios de transparencia y derechos, porque la viralidad es un fenómeno socio-técnico: no se combate solo con discursos, sino también con fricciones inteligentes, contexto y trazabilidad. [nvlpubs.nist.gov], [unesco.org], [weforum.org]
Conviene insistir en un punto: la salvaguarda democrática no es la prohibición, sino la evidencia. La respuesta más eficaz no es silenciar, sino iluminar: producir más información verificable, más rápido y con mejores señales de autenticidad. En el caso de Netanyahu, el desmentido fue necesario, pero lo verdaderamente instructivo fue el método: verificación de ubicación y fecha, contrastes y corroboración externa. Ese estándar es exportable. Un Estado moderno debe ser capaz de decir “esto ocurrió” y, a la vez, mostrar cómo lo sabe. Esa es la diferencia entre propaganda y comunicación pública robusta. [usnews.com]
La gran amenaza del “efecto IA” no es únicamente la existencia de deepfakes; es la normalización del cinismo epistémico, esa idea de que nada puede comprobarse, de que todo es montaje, de que toda evidencia es sospechosa. Si esa mentalidad se convierte en cultura política, la democracia pierde su piso mínimo: el acuerdo sobre hechos básicos. Por eso, defender la integridad informativa no es una agenda secundaria ni un lujo intelectual; es una política de resiliencia social. En tiempos de crisis, la verdad necesita infraestructura. Y construirla, con derechos, transparencia y capacidad técnica, es una tarea estratégica del Estado contemporáneo. [weforum.org], [nvlpubs.nist.gov]
Luis Orlando Díaz Vólquez
No hay comentarios.:
Publicar un comentario