Riesgos de Ciberseguridad al Usar Inteligencia Artificial

Clase 11 de 26Curso de Ciberseguridad y Privacidad para Empresas

Resumen

¿Cómo está cambiando ChatGPT el panorama de la ciberseguridad?

ChatGPT ha revolucionado la forma en que muchas personas trabajan e interactúan con la tecnología. Sin embargo, esta poderosa inteligencia artificial también está siendo aprovechada por hackers para mejorar sus ataques, presentando nuevos desafíos en el ámbito de la ciberseguridad. Desde la optimización de campañas de phishing hasta el análisis de vulnerabilidades en código, hoy examinamos cómo los ciberdelincuentes están sacando partido de las capacidades de ChatGPT.

¿Cómo optimizan los hackers sus campañas de phishing con ChatGPT?

Los hackers han encontrado en ChatGPT una herramienta invaluable para mejorar la redacción de sus campañas de phishing. Ya no es raro que estas campañas presenten un lenguaje mucho más natural gracias a la corrección gramatical y la ausencia de errores de traducción, algo que en el pasado permitía a las víctimas sospechar del engaño.

  1. Mejora en la Redacción: ChatGPT permite un texto más creíble y menos sospechoso, eliminando errores típicos de traducción que delataban campañas más rudimentarias.
  2. Elementos de Phishing Optimizado: Los mensajes pueden ser personalizados para incluir un sentido de urgencia y enlaces falsos con mayor precisión.

Los ciberdelincuentes pueden, incluso, engañar a la IA solicitando ejemplos para capacitaciones educativas, eludiendo las barreras de seguridad de ChatGPT para evitar participar en actividades ilegales.

¿Cómo identifican los atacantes las vulnerabilidades del código con ChatGPT?

ChatGPT también se utiliza para identificar vulnerabilidades en el código fuente. Un hacker podría solicitar a la inteligencia artificial que analice un fragmento de código y señale sus puntos débiles.

# Ejemplo de código vulnerable
def execute_query(query):
    cursor.execute(f"SELECT * FROM users WHERE name = '{query}'")

ChatGPT puede detectar vulnerabilidades específicas, como la inyección SQL en el código anterior, y sugerir soluciones, facilitando el trabajo de los hackers para explotar tales fallos.

¿Qué herramientas pueden crear los hackers con la ayuda de ChatGPT?

La capacidad de ChatGPT para crear herramientas específicas también es aprovechada por los atacantes. Un ejemplo sería la creación de un script para escanear puertos en Python. Esta automatización es crítica para los hackers, ya que les permite desarrollar herramientas eficaces sin necesidad de tener un profundo conocimiento técnico de programación.

# Ejemplo de script para escanear puertos
import socket

def scan_ports(target):
    print(f"Escaneando puertos en {target}")
    for port in range(20, 1025):
        sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
        result = sock.connect_ex((target, port))
        if result == 0:
            print(f"Puerto {port}: Abierto")
        sock.close()

ChatGPT hace gran parte del trabajo, generando código funcional y permitiendo que los atacantes construyan herramientas sofisticadas con rapidez y eficiencia.

Consideraciones sobre la privacidad de los datos al usar ChatGPT

A pesar de su utilidad, utilizar ChatGPT conlleva riesgos de privacidad, especialmente si se maneja información confidencial. Como fue el caso en Samsung, donde los empleados utilizaron ChatGPT para depurar código, la IA podría potencialmente recopilar y reutilizar información compartida con ella.

  • Riesgo de compartir información confidencial: Toda información proporcionada a ChatGPT podría ser utilizada para su reentrenamiento, comprometiendo la confidencialidad de datos empresariales si no se maneja con cuidado.

En resumen, aunque ChatGPT ofrece notables ventajas en eficiencia y funcionalidad, es crucial ser conscientes de sus riesgos asociados. La seguridad de los datos y la protección contra el uso malicioso de esta tecnología debe ser una prioridad para todos los usuarios.