jueves, diciembre 04, 2025
Andrea Lievano.

En 2025, tu reputación ya no se daña por lo que dices sino por lo que alguien puede hacer que ‘parezca’ que dijiste. La batalla del legado será, cada vez más, una batalla por la autenticidad verificable.

Los deepfakes dejaron de ser una curiosidad tecnológica para convertirse en una amenaza concreta. En menos de dos años pasamos de mirar con asombro videos generados por inteligencia artificial, a vivir en una era donde la credibilidad de líderes, marcas y gobiernos se desmorona en cuestión de segundos. La manipulación digital de rostros, voces y gestos ya no solo se ve real: se siente real. Y cuando eso ocurre, la verdad empieza a perder la carrera.

El riesgo no está únicamente en la falsificación. Está en la velocidad. Hoy, la reputación de una figura pública puede estar bajo ataque antes de que su equipo siquiera note lo que ha ocurrido. Desmentir no basta, porque cuando la viralidad es el primer juez, la percepción es sentencia.

El caso de Tom Hanks lo demostró: en 2023 circuló en TikTok un video donde el actor “promocionaba” un seguro dental. Era falso. Él mismo tuvo que aclararlo públicamente: “I have nothing to do with it.” A pesar de su reputación intachable, el daño fue inmediato. No por el contenido en sí, sino por el uso ilegítimo de su imagen para generar confianza. Fue una lección contundente: ni los más queridos están a salvo.

Lo mismo vivió Scarlett Johansson cuando una empresa clonó su voz para un anuncio de IA. El público asumió que era una campaña legítima, y ella tuvo que demandar. La confusión fue global. El debate sobre los derechos de imagen y el consentimiento en la era digital estalló con fuerza. ¿Qué pasa cuando tu voz, literalmente, ya no te pertenece?

En el terreno político, el impacto fue aún más grave. En enero de 2024, en plena temporada electoral en Estados Unidos, una llamada automatizada con la voz de Joe Biden instaba a los votantes demócratas a no participar en las primarias. Era un deepfake, y generó suficiente confusión como para activar investigaciones oficiales. Las implicaciones son alarmantes: un contenido manipulado puede modificar comportamientos sociales reales en minutos.

Elon Musk también fue víctima. Deepfakes hiperrealistas lo mostraban recomendando un sistema de inversión en criptomonedas. El tono, el lenguaje, el fondo: todo parecía legítimo. Cientos de miles de usuarios cayeron. El daño no solo fue económico; fue reputacional. Porque cuando el CEO es la marca, la manipulación de su imagen contamina todo el ecosistema.

En el caso de una empresa en Hong Kong, el escenario fue todavía más dramático. Un empleado realizó una videollamada con lo que creyó era su CFO. Autorizó una transferencia por 25 millones de dólares. Solo después descubrieron que el supuesto ejecutivo había sido generado por inteligencia artificial. La policía lo confirmó. Y la reputación interna y externa de la compañía sufrió un golpe que no puede medirse solo en cifras.

Incluso en contextos geopolíticos, los deepfakes se están usando como armas de guerra. Videos falsos del presidente ucraniano Volodímir Zelenski pidiendo la rendición de sus tropas se viralizaron más de una vez en Telegram y Twitter. El objetivo era claro: manipular la moral pública, generar pánico e influir en la narrativa internacional.

Todo esto erosiona algo más profundo que la reputación del presente: erosiona el legado. Un video falso, una voz clonada, una narrativa inventada pueden quedar indexados en internet para siempre. En Google todavía aparecen fragmentos de un deepfake sexual de Emma Watson que fue denunciado en 2024. La memoria pública, digitalizada e incontrolable, ya no distingue entre lo real y lo generado.

Cuando un líder puede ser replicado, editado, y reconfigurado, la narrativa deja de estar en sus manos. Si pueden hacerte decir lo que nunca dijiste, tu coherencia pública se vuelve frágil. Tu historia queda a merced de quien controle el algoritmo. Y si todo puede falsificarse, ¿quién garantiza que lo auténtico sigue siéndolo?

Ante esta realidad, algunas organizaciones están reaccionando. OpenAI y Meta trabajan en marcas de agua invisibles para identificar contenido generado por IA. Pero la tecnología evoluciona más rápido que las defensas. Las figuras públicas más conscientes ya están implementando estrategias de "proof of self": desde firmas digitales en video, hasta contenidos en vivo geolocalizados con timestamps biométricos. Taylor Swift, por ejemplo, decidió migrar parte de su comunicación a transmisiones en vivo tras la difusión de un deepfake sexual en X que alcanzó más de 12 millones de vistas en menos de 24 horas.

En el frente de la gestión de crisis, los equipos de relaciones públicas están rediseñando sus protocolos. Hoy no basta con tener una buena respuesta; es necesario ser el primero en responder. Porque la mentira corre más rápido que cualquier comunicado oficial.

Vivimos en una era donde los datos pueden ser manipulados, los rostros fabricados y las voces clonadas. Proteger la reputación ya no es solo un ejercicio de comunicación estratégica: es un acto de supervivencia. La autenticidad se convierte en un activo vulnerable. El legado, en una narrativa que hay que blindar.

Porque en esta nueva realidad, no basta con ser quien eres: tienes que probarlo constantemente. El desafío ya no es solo construir confianza, sino sostenerla frente a una audiencia que duda incluso de lo que ve y escucha.

La pregunta no es si te va a pasar. Es cuándo. Y qué tan preparado estarás cuando lo haga.

También te puede interesar: El método Agatha: así se fabrica una marca que perdura

Miguel Dallos
Leonardo
Camilo Herrera