Análisis Léxico: Construcción de un Léxer para Intérpretes

Clase 3 de 58Curso de Creación de Lenguajes de Programación: Intérpretes

Contenido del curso

Construcción del lexer o tokenizador

Construcción del parser o analizador sintáctico

Evaluación o análisis semántico

Resumen

Construir un intérprete desde cero implica entender cómo una computadora lee y procesa código fuente. El primer paso de este proceso es el análisis léxico, una fase fundamental que transforma texto plano en piezas con significado, y el componente encargado de hacerlo se llama lexer.

¿Qué es el análisis léxico y por qué es el primer paso del intérprete?

El análisis léxico es el procedimiento mediante el cual se convierte una secuencia de caracteres en tokens que tienen un significado dentro de un lenguaje de programación [0:14]. Piensa en tu código fuente como una oración larga: el lexer la descompone palabra por palabra, símbolo por símbolo, hasta obtener las unidades mínimas con sentido.

Por ejemplo, en un fragmento de código estos serían algunos tokens reconocibles:

  • La palabra variable es un token.
  • El signo = (asignación) es otro token.
  • El punto y coma ; es un token.
  • Los paréntesis y las llaves también son tokens individuales.

Cada uno de estos tokens tiene dos propiedades esenciales: un tipo y un valor [1:08]. En un intérprete listo para producción, también incluirían información adicional como el archivo, la línea y la columna donde se encuentran, principalmente para ofrecer buenos mensajes de error.

¿Cómo funciona el lexer al procesar código fuente?

El flujo es sencillo de visualizar. Tu código fuente entra como input a un objeto llamado lexer [1:30]. Este componente lo lee carácter por carácter, identifica patrones que corresponden a tokens válidos y devuelve una lista de tokens como resultado.

¿Cómo se ve la tokenización en la práctica?

Considerando un fragmento del lenguaje de programación Platzi donde se asigna un procedimiento a la variable suma [1:50], la tokenización produce esta lista:

  • variablekeyword.
  • suma → identificador.
  • = → operador de asignación.
  • funcionkeyword.
  • ( → paréntesis izquierdo.
  • A, B → identificadores.
  • ) → paréntesis derecho.
  • { → llave de apertura.
  • regresakeyword.
  • A + B → identificadores y operador.
  • } → llave de cierre.
  • ; → punto y coma.

Un detalle importante: en este lenguaje, los espacios en blanco se ignoran [2:22]. Sin embargo, en lenguajes como Python, los espacios en blanco sí tienen significado semántico y necesitarían su propio token asignado.

¿Qué errores detecta el lexer y cuáles no?

El lexer no se preocupa por validar si la estructura del programa es correcta [2:44]. Su única responsabilidad es identificar los pedazos primitivos del código y rechazar símbolos que no estén permitidos en el lenguaje.

Por ejemplo:

  • El símbolo ¿ no está permitido como operador, así que generaría un error.
  • El @ tampoco forma parte del lenguaje y sería rechazado.

La validación de la sintaxis corresponde a la siguiente fase del pipeline: el parser [2:55]. Este sí verificará que los paréntesis estén cerrados, que los procedimientos terminen en punto y coma y que la estructura general del programa sea coherente.

¿Qué construirás como resultado de esta fase?

El objetivo concreto es crear un lexer que tome un string como entrada, lo recorra carácter por carácter, identifique qué pedazos tienen significado dentro del lenguaje de programación y devuelva una lista de tokens con su tipo y valor asignados [3:20].

Esta es la base sobre la que se construirán las fases posteriores del intérprete. Sin un análisis léxico correcto, el parser no tendría material con el cual trabajar. Comparte tus dudas en los comentarios para que la comunidad pueda ayudarte antes de comenzar a escribir código en la siguiente sesión.