Riesgos de Ciberseguridad al Usar Inteligencia Artificial

Clase 11 de 26Curso de Ciberseguridad y Privacidad para Empresas

Contenido del curso

Comprende y actúa frente amenazas cibernéticas

Buenas prácticas de Ciberseguridad

Resumen

La inteligencia artificial generativa se ha convertido en un arma de doble filo: mientras millones de personas la aprovechan para ser más productivos, los ciberdelincuentes también la utilizan para perfeccionar sus ataques. Comprender cómo lo hacen es el primer paso para protegerte y proteger la información de tu organización.

¿Cómo aprovechan los hackers ChatGPT para sus ataques?

Los atacantes han encontrado al menos cuatro formas concretas de sacar ventaja de esta herramienta:

  • Optimizar campañas de phishing mejorando la redacción de correos fraudulentos.
  • Analizar código fuente en busca de vulnerabilidades de seguridad.
  • Consultar vulnerabilidades conocidas de versiones específicas de tecnologías.
  • Generar programas maliciosos en distintos lenguajes de programación para automatizar actividades de hackeo.

Cada una de estas capacidades reduce drásticamente el tiempo y el esfuerzo que un atacante necesita invertir. Lo que antes requería conocimientos avanzados de programación o redacción persuasiva, ahora se consigue con unas cuantas instrucciones bien formuladas.

¿Por qué el phishing con IA es más peligroso que antes?

El phishing es una técnica de ingeniería social donde un atacante se hace pasar por una entidad legítima para robar credenciales o información sensible. Históricamente, muchas campañas provenían de países como Rusia, India o naciones africanas, y los correos contenían errores gramaticales o traducciones evidentes que generaban sospecha [01:40].

Hoy, herramientas como ChatGPT eliminan por completo esos errores. La redacción parece auténtica y profesional, lo que dificulta identificar el fraude. Aunque ChatGPT inicialmente rechaza solicitudes directas como "hazme un phishing de Facebook", los atacantes emplean técnicas de evasión: por ejemplo, enmarcar la petición como material educativo para una clase de capacitación [01:12]. Con ese simple ajuste, el sistema genera un correo completo con asunto, cuerpo, enlace falso y texto convincente.

Los elementos clave para identificar un phishing siguen siendo los mismos: sentido de urgencia, enlaces sospechosos y falta de personalización (como usar "estimado usuario" en lugar de un nombre real) [01:30]. Sin embargo, la calidad lingüística ya no es un indicador confiable.

¿Cómo se usa ChatGPT para encontrar vulnerabilidades en código?

Un atacante puede pegar un fragmento de código fuente y pedirle a ChatGPT que busque vulnerabilidades [02:20]. El sistema analiza la lógica del programa y señala los puntos débiles, indicando incluso el tipo de vulnerabilidad detectada.

En el ejemplo mostrado, ChatGPT identifica una vulnerabilidad de SQL Injection, un tipo de ataque donde se inyectan instrucciones maliciosas en consultas a bases de datos porque la aplicación no valida correctamente la información que recibe del usuario [02:45]. Este hallazgo, que antes requería experiencia técnica considerable, ahora se obtiene en segundos.

¿Qué riesgo representa compartir información confidencial con ChatGPT?

Más allá de los atacantes externos, existe un riesgo interno significativo. ChatGPT puede utilizar las conversaciones de los usuarios para reentrenarse y mejorar sus respuestas [03:40]. Esto significa que cualquier dato que compartas podría potencialmente alimentar respuestas futuras para otros usuarios.

Un caso relevante ocurrió en Samsung, donde empleados que programaban microcontroladores compartieron código propietario con ChatGPT para solucionar errores [03:25]. Aunque la herramienta resolvió los problemas técnicos, la información confidencial de la empresa quedó expuesta al sistema.

Las recomendaciones esenciales son claras:

  • No compartas código fuente propietario ni información sensible de tu empresa.
  • No incluyas datos personales de clientes o empleados en tus consultas.
  • Verifica las políticas de uso de datos de cualquier herramienta de IA que utilices.

¿Cómo generan herramientas de ataque con inteligencia artificial?

Los ciberdelincuentes también solicitan a ChatGPT la creación de herramientas específicas. Por ejemplo, al pedir "ayúdame a hacer una herramienta para escanear puertos en Python", el sistema genera código funcional listo para usar [03:05]. El escaneo de puertos es una técnica que permite identificar qué servicios están activos en un servidor, información valiosa para planificar un ataque.

Lo preocupante es que estas solicitudes pueden ser muy específicas, lo que permite a atacantes sin conocimientos avanzados de programación obtener herramientas personalizadas de forma automática.

La inteligencia artificial no es el enemigo; el problema radica en cómo se utiliza. ¿Tú para qué usas ChatGPT en tu día a día y qué precauciones tomas? Compártelo en los comentarios.