Resumen

Un trabajador financiero en Hong Kong perdió 25 millones de dólares tras ser engañado por estafadores que usaron tecnología deep fake para suplantar a un ejecutivo durante una videollamada completa en Zoom [0:03]. Todos los participantes de esa reunión eran avatares generados con inteligencia artificial. Este caso real demuestra que las estafas con IA no son ciencia ficción, sino una amenaza concreta que ya está ocurriendo y que cualquier persona u organización puede enfrentar.

¿Por qué las estafas con inteligencia artificial están más cerca de lo que crees?

Las estafas no son algo nuevo. Lo que cambia es la herramienta. Así como muchos fraudes migraron de la calle a WhatsApp, ahora los actores maliciosos están adoptando modelos de inteligencia artificial para hacerlas más convincentes [1:08]. La tecnología funciona como una palanca poderosa: quienes buscan obtener dinero de forma ilícita no tienen escrúpulos a la hora de adoptar cualquier recurso disponible.

El punto clave es que la IA no nos hace más vulnerables por sí misma. Siempre hemos estado expuestos a intentos de fraude. Lo que sí cambia es la sofisticación con la que se ejecutan [8:20].

¿Cómo funciona la clonación de voz con herramientas como Eleven Labs?

Para demostrar lo accesible que es esta tecnología, se realizó un experimento en vivo utilizando Eleven Labs, una plataforma especializada en modelos de voz [2:18]. El proceso fue sencillo:

  • Se tomó una muestra de audio de pocos segundos.
  • Un modelo de IA generó un patrón de voz replicable.
  • Se escribió un texto simulando una estafa típica de urgencia.
  • La herramienta produjo un audio con la voz clonada en cuestión de segundos.

El primer resultado sonaba algo robótico y plano [3:08]. Sin embargo, la herramienta permite ajustar parámetros como la estabilidad del tono para darle mayor naturalidad [3:35]. Al reducir la estabilidad, el audio sonó más emocional y creíble, algo lógico considerando que todas las estafas se basan en crear una sensación de urgencia [3:47].

Con apenas 30 segundos o un minuto de audio, ya es posible realizar una clonación bastante convincente [4:28]. No es perfecta, pero la tecnología avanza rápidamente y ya constituye una realidad.

¿Qué tan fácil es generar un avatar en video con IA?

El experimento fue más allá de la voz. Usando otra herramienta, se generó un avatar en video a partir de una imagen estática y un audio pregrabado [5:00]. El proceso consistió en:

  • Seleccionar una imagen como base del avatar.
  • Cargar un fragmento de audio real.
  • Enviar la solicitud para que el sistema generara un video completo.

El resultado fue sorprendentemente realista [6:18]. El video mostraba a una persona hablando con movimientos faciales sincronizados al audio, lo cual evidencia el nivel de sofisticación que estas herramientas ya alcanzan.

¿Qué mecanismos de seguridad existen en estas plataformas?

Es importante señalar que plataformas como estas implementan mecanismos de consentimiento [6:38]. No es posible crear videos sin que la persona representada haya dado su autorización previa. En algunas pruebas, el sistema detectó posibles usos indebidos y bloqueó la generación del contenido [7:05]. Las plataformas tienen la responsabilidad de supervisar el uso de su tecnología, aunque como se vio en el caso de Hong Kong, estos controles no siempre son suficientes.

¿Por qué experimentar con IA de forma segura es una necesidad y no una opción?

Si una empresa cierra todas las posibilidades de experimentar de forma controlada con inteligencia artificial, tiene un problema grave [7:28]. Las personas que trabajan en esa organización no podrán aprender:

  • Los principios fundamentales que gobiernan estas tecnologías.
  • El potencial real que ofrecen para la productividad.
  • Las limitaciones y peligros involucrados en su uso.

La ignorancia no es una opción en este momento [7:55]. Son tecnologías que están transformando el mundo y todos pueden aprenderlas. Las herramientas mencionadas no son particularmente costosas y muchas ofrecen versiones gratuitas para probarlas [8:38].

Clonar voces, generar videos, experimentar con diferentes modelos: todo esto resulta divertido y al mismo tiempo genera un aprendizaje profundo sobre cómo funciona la IA y cómo protegerse de sus usos maliciosos. Lo fundamental es complementar esta exploración con formación en ciberseguridad para garantizar un uso responsable y seguro de estas poderosas herramientas [9:00].