Pruebas de Operadores, Delimitadores y Fin de Archivo en Lexer Python
Clase 6 de 58 • Curso de Creación de Lenguajes de Programación: Intérpretes
Contenido del curso
- 3

Análisis Léxico: Construcción de un Léxer para Intérpretes
05:36 - 4

Definición de Tokens en Lenguaje de Programación Platzi
11:53 - 5

Desarrollo de un Lexer con Test-Driven Development
15:43 - 6

Pruebas de Operadores, Delimitadores y Fin de Archivo en Lexer Python
10:01 - 7

Lexer: Identificación de Keywords y Tokens Complejos
18:57 - 8

Reconocimiento de Funciones en Lexer de Lenguaje de Programación
07:46 - 9

Implementación de Operadores y Condicionales en Lexer de Platzi
12:38 - 10

Implementación de Operadores de Dos Caracteres en Lexer
12:08 - 11

Creación de un REPL en Python para Lenguaje de Programación
12:35
- 12

Construcción de un Parser para el Lenguaje Platzi
05:22 - 13

Definición de Nodos Abstractos para Árbol de Sintaxis (AST) en Python
09:14 - 14

Desarrollo de un AST en Python: Creación de la Clase Programa
12:49 - 15

Parseo de Let Statements en Lenguaje Platzi
20:21 - 16

Implementación de funciones advanced y expected tokens
08:26 - 17

Manejo de Errores en Parsers con Test Driven Development
11:06 - 18

Parseo de Return Statements en Lenguaje Platzi
12:42 - 19
Técnicas de Parsing: Top-Down y Bottom-Up
01:46 - 20

Pruebas de AST para Let y Return Statements en Parsers
12:06 - 21

Pratt Parsing: Implementación y Registro de Funciones en Python
11:47 - 22

Parseo de Identificadores en Lenguajes de Programación
13:29 - 23

Parseo de Expression Statements en Platzi Parser
16:34 - 24

Parseo de Enteros en Lenguaje Platzi
14:03 - 25

Implementación de Operadores Prefijo en Parsers
16:43 - 26

Operadores InFix en Expresiones: Implementación y Pruebas
10:40 - 27

Implementación de Operadores InFix en un Parser
20:20 - 28

Expresiones Booleanas en el Lenguaje de Programación Platzi
13:00 - 29

Evaluación de Precedencia y Testeo de Booleanos en Parsers
08:39 - 30

Evaluación de Expresiones Agrupadas en un Parser
10:16 - 31

Parseo de Condicionales en Lenguaje Platzi
13:50 - 32

Implementación de Condicionales en Parser de Lenguaje
12:05 - 33

Parsing de Funciones en Lenguaje Platzi: Creación de Nodos AST
15:51 - 34

Construcción de nodos de función en un parser AST
15:43 - 35

Llamadas a Funciones en Lenguajes de Programación
13:05 - 36

Implementación de llamadas a funciones en un parser con AST
12:21 - 37

Parseo de Expresiones en LET y RETURN Statements
07:58 - 38

Implementación de REPL para Árbol de Sintaxis Abstracta
08:59
- 39

Evaluación Semántica en Lenguajes de Programación
03:42 - 40

Estrategias de Evaluación en Lenguajes de Programación
09:18 - 41

Representación de Nodos AST y Objetos en Python
14:17 - 42

Evaluación de Expresiones en JavaScript y Python
19:39 - 43

Implementación del Patrón Singleton para Booleanos y Nulos
11:52 - 44

Evaluación de Prefijos en Lenguaje de Programación Platzi
14:41 - 45

Evaluación de Expresiones Infix en Lenguaje Platzi
18:07 - 46

Evaluación de Condicionales en Lenguaje de Programación Platzi
13:50 - 47

Evaluación y Uso del Return Statement en Programación
14:42 - 48

Manejo de Errores Semánticos en Lenguaje Platzi
21:05 - 49

Declaración y Gestión de Variables en Lenguajes de Programación
13:55 - 50

Manejo de Ambientes y Variables en Lenguajes de Programación
11:57 - 51

Declaración de Funciones en Lenguaje de Programación Platzi
12:26 - 52

Implementación de Llamadas a Funciones en PlatziLang
23:55
¿Cómo expandir un léxer con pruebas y operadores?
Expandir un léxer es una tarea crucial en el desarrollo de un compilador eficiente. En esta etapa, deseamos robustecer nuestra capacidad para manejar varias funciones, como operadores de un solo carácter, delimitadores y el fin del archivo. Si estás aprendiendo a través de GitHub, asegúrate de seguir en la rama adecuada para este tema específico.
¿Cómo probamos operadores de un solo carácter?
Para iniciar con los operadores simples, primero construimos una prueba. Este test se dirige a operadores de un solo carácter como asignación y suma. La estructura de esta prueba será similar a las anteriores:
def test_one_character_operator():
source = "=+"
lexer = Lexer(source)
tokens = [token for token in lexer]
expected_tokens = [TokenType.ASSIGN, TokenType.PLUS]
assert tokens == expected_tokens
- Inicialización del léxer: Tomamos la cadena fuente que contiene
=y+. - Generación de tokens esperados: Esperamos obtener
assignyplus. - Verificación con
assert: Comprobamos que los tokens devueltos sean los esperados.
¿Qué hacemos si el token es ilegal?
Si los tokens encontrados no son los esperados, inicialmente el léxer los marcaba como ilegales. Para solucionarlo, importamos el módulo de expresiones regulares re en Python y ajustamos el método next_token del léxer para que reconozca los operadores:
import re
def next_token(self):
if re.match(r"^=$", self.character):
return TokenType.ASSIGN, self.character
elif re.match(r"^\+$", self.character):
return TokenType.PLUS, self.character
else:
return TokenType.ILLEGAL, self.character
¿Cómo probamos el fin del archivo?
Creamos otra prueba que valida cómo el léxer maneja el final del archivo (EOF). La prueba siguiente verificará que el léxer devuelva EOF apropiadamente:
def test_end_of_file():
source = "+"
lexer = Lexer(source)
tokens = [token for token in lexer]
expected_tokens = [TokenType.PLUS, TokenType.EOF]
assert tokens == expected_tokens
¿Por qué es imprescindible manejar delimitadores?
Los delimitadores tales como paréntesis, llaves y comas son comunes en las expresiones regulares y deben manejarse adecuadamente en nuestro léxer. El desafío final consiste en implementar un test que compruebe que nuestro léxer puede reconocer y devolver los tokens correspondientes a los delimitadores.
El test debería incluir:
def test_delimiters():
source = "( ){ } , ;"
lexer = Lexer(source)
tokens = [token for token in lexer]
expected_tokens = [TokenType.LPAREN, TokenType.RPAREN, TokenType.LBRACE, TokenType.RBRACE, TokenType.COMMA, TokenType.SEMICOLON]
assert tokens == expected_tokens
Este test sirve como una excelente oportunidad práctica para aplicar conocimientos sobre expresiones regulares y manejo de tokens dentro de un léxer. Además, motiva a seguir explorando, escribiendo y comparando su código con soluciones disponibles en GitHub para enriquecer el aprendizaje. ¡Adelante, cada avance es un paso más hacia el dominio del análisis léxico!