CursosEmpresasBlogLiveConfPrecios

Imputación por KNN en Python

Clase 13 de 17 • Curso de Manejo de Datos Faltantes: Imputación

Clase anteriorSiguiente clase

Contenido del curso

Problemática de valores faltantes
  • 1
    El problema de trabajar con valores faltantes

    El problema de trabajar con valores faltantes

    10:56
  • 2
    Proceso de análisis y limpieza de datos

    Proceso de análisis y limpieza de datos

    13:19
  • 3
    Visualizar y eliminar valores faltantes

    Visualizar y eliminar valores faltantes

    08:19
  • 4
    Implicaciones de los distintos tipos de valores faltantes

    Implicaciones de los distintos tipos de valores faltantes

    09:43
  • 5
    Amplía tu conjunto de herramientas para explorar valores faltantes

    Amplía tu conjunto de herramientas para explorar valores faltantes

    11:55
  • 6
    Tratamiento de variables categóricas para imputación: codificación ordinal

    Tratamiento de variables categóricas para imputación: codificación ordinal

    15:59
  • 7
    Tratamiento de variables categóricas para imputación: one-hot encoding

    Tratamiento de variables categóricas para imputación: one-hot encoding

    12:51
  • 8
    Métodos de imputación de valores faltantes

    Métodos de imputación de valores faltantes

    04:41
Imputación basada en el donante
  • 9
    Imputación por media, mediana y moda

    Imputación por media, mediana y moda

    10:22
  • 10
    Imputación por llenado hacia atrás y hacia adelante

    Imputación por llenado hacia atrás y hacia adelante

    09:20
  • 11
    Imputación por interpolación

    Imputación por interpolación

    11:46
  • 12
    Imputación por KNN

    Imputación por KNN

    04:34
  • 13
    Imputación por KNN en Python

    Imputación por KNN en Python

    12:01
Imputación basada en modelos
  • 14
    Introducción a la imputación basada en modelos

    Introducción a la imputación basada en modelos

    13:27
  • 15
    Imputaciones Múltiples por Ecuaciones Encadenadas (MICE)

    Imputaciones Múltiples por Ecuaciones Encadenadas (MICE)

    13:05
Conclusión
  • 16
    Transformación inversa de los datos

    Transformación inversa de los datos

    07:07
  • 17
    ¿Cómo continuar practicando?

    ¿Cómo continuar practicando?

    03:09
    Jeinfferson Bernal G

    Jeinfferson Bernal G

    student•
    hace 3 años

    Ordenamiento por cantidad de variables faltantes

    Ordenar los datos por la cantidad de valiables faltantes nos da cierto rigor al momento de la imputacion. Esto se logra comenzando con definir las distancias entre valores existentes para luego predecir o imputar valores que no existen repitiendo el proceso paso a paso hasta lograr la imputacion completa de los datos. Algunos algoritmos implementan esta tecnica por defecto.

    • Imputacion por KNN al ordenas las variables segun su cantidad de valores faltantes de forma ascendente
    # imputador con knn knn_imputer = sklearn.impute.KNNImputer() # copia del df ordenamos las variables por la cantidad de missing de forma ascendente nhanes_df_knn = nhanes_transformed_df.missing.sort_variables_by_missingness(ascending=True).copy(deep=True) # agregamos los valores imputados al nuevo df ajustamos los datos ordenados por la cantidad de variables faltantes redondeamos valores nhanes_df_knn.iloc[:, :] = knn_imputer.fit_transform(nhanes_transformed_df.missing.sort_variables_by_missingness(ascending=True).copy(deep=True)).round() nhanes_df_knn
    Untitled (6).png
    • Visualizacion mediante un scatterplot
    ( # matriz de sombra pd.concat( [ nhanes_df_knn, nhanes_df.missing.create_shadow_matrix2(True, False, suffix='_imp', only_missing=True) ], axis=1 ) # visualizacion mediantes un scatterplot de dos variables numericas .missing.scatter_imputation_plot( x = 'height', y = 'weight' ) )
    Untitled (7).png

    Aunque ambas imputaciones son similares, puede darse el caso dependiendo del software que aplicando este truco te ayude a conseguir mejores rendimientos en el conjunto de datos

      Julián Cárdenas

      Julián Cárdenas

      student•
      hace 2 años

      Nice summary like always you do

      Pablo Alejandro Figueroa

      Pablo Alejandro Figueroa

      student•
      hace 2 años

      Gracias Jeinfferson un lujo..!

    Jeinfferson Bernal G

    Jeinfferson Bernal G

    student•
    hace 3 años

    Imputacion por KNN en Python

    • Utilizamos el dataframe con los datos categoricos transformados en numeros
    nhanes_transformed_df
    • Creamos el imputador con el algoritmo de knn
    # imputador con knn knn_imputer = sklearn.impute.KNNImputer()
    • Creamos una copia del dataframe con los datos transformados
    nhanes_df_knn = nhanes_transformed_df.copy(deep=True)
    • Imputamos los valores faltantes
    # agregamos los valores al nuevo df sobreescribimos redondeamos valores nhanes_df_knn.iloc[:, :] = knn_imputer.fit_transform(nhanes_transformed_df).round() nhanes_df_knn
    Untitled (4).png
      Julián Cárdenas

      Julián Cárdenas

      student•
      hace 2 años

      👏 :)

      Pablo Alejandro Figueroa

      Pablo Alejandro Figueroa

      student•
      hace 2 años

      Gracias Jeinfferson otro lujo..!

    Jeinfferson Bernal G

    Jeinfferson Bernal G

    student•
    hace 3 años

    Visualizacion de la imputacion por KNN

    • Creamos la matriz de sombra y luego graficamos mediante un scattterplot
    ( # matriz de sombra pd.concat( [ nhanes_df_knn, nhanes_df.missing.create_shadow_matrix2(True, False, suffix='_imp', only_missing=True) ], axis=1 ) # visualizacion mediantes un scatterplot de dos variables numericas .missing.scatter_imputation_plot( x = 'height', y = 'weight' ) )
    Untitled (5).png
      Julián Cárdenas

      Julián Cárdenas

      student•
      hace 2 años

      👏

    Catriel Perez

    Catriel Perez

    student•
    hace 3 años

    hasta el min 7 es el mismo video que la clase 12

      Alejandro Pedrosa Calleja

      Alejandro Pedrosa Calleja

      student•
      hace 3 años

      nice try

      Bryan Carvajal

      Bryan Carvajal

      student•
      hace 3 años

      no lo crean, vean el video completo 😃

    Pablo Alejandro Figueroa

    Pablo Alejandro Figueroa

    student•
    hace 2 años

    Sorted or not sorted..?

    Me parece que es lo mismo:

    Captura de pantalla 2024-02-07 164053.png

    Mario Alexander Vargas Celis

    Mario Alexander Vargas Celis

    student•
    hace un año

    La **imputación por KNN** en Python se puede realizar de manera efectiva utilizando la clase KNNImputer de la librería scikit-learn. Esta herramienta es útil para reemplazar los valores faltantes basándose en las observaciones más cercanas en términos de distancia entre puntos.

    ### Pasos para implementar KNNImputer en Python:

    1. **Instalación de las dependencias necesarias** (si aún no las tienes instaladas):

    ```bash

    pip install scikit-learn pandas

    ```

    2. **Imputación por KNN** con un ejemplo práctico.

    #### Ejemplo paso a paso:

    import numpy as np import pandas as pd from sklearn.impute import KNNImputer \# Crear un DataFrame con valores faltantes data = {'A': \[1, 2, np.nan, 4, 5],   'B': \[5, np.nan, np.nan, 3, 2],   'C': \[7, 8, 9, 10, 11]} df = pd.DataFrame(data) \# Mostrar el DataFrame original con valores faltantes print("DataFrame original:") print(df) \# Crear un objeto KNNImputer con K=2 (número de vecinos más cercanos) imputer = KNNImputer(n\_neighbors=2) \# Imputar los valores faltantes utilizando KNN df\_imputed = pd.DataFrame(imputer.fit\_transform(df), columns=df.columns) \# Mostrar el DataFrame después de la imputación print("\nDataFrame imputado por KNN:") print(df\_imputed)

    ### Explicación del código:

    1. **DataFrame con valores faltantes**: Creamos un DataFrame con algunas celdas vacías (representadas por np.nan).

    2. **KNNImputer**: Inicializamos el objeto KNNImputer con 2 vecinos más cercanos (n\_neighbors=2). Puedes ajustar este valor dependiendo de cuántos vecinos desees utilizar.

    3. **Imputación**: Aplicamos el método fit\_transform() para realizar la imputación de los valores faltantes.

    4. **Resultados**: Visualizamos el DataFrame con los valores imputados.

    ### Salida esperada:

    DataFrame original:   A B C 0 1.0 5.0 7 1 2.0 NaN 8 2 NaN NaN 9 3 4.0 3.0 10 4 5.0 2.0 11 DataFrame imputado por KNN:   A B C 0 1.0 5.0 7.0 1 2.0 4.0 8.0 2 3.0 4.0 9.0 3 4.0 3.0 10.0 4 5.0 2.0 11.0

    ### Consideraciones adicionales:

    - **Escalado de los datos**: Si los datos tienen escalas muy diferentes, es recomendable normalizarlos antes de aplicar KNNImputer para que las variables no dominen en el cálculo de las distancias.

    ```python

    from sklearn.preprocessing import StandardScaler

    scaler = StandardScaler()

    df_scaled = scaler.fit_transform(df)

    # Aplicar KNN después de escalar los datos

    df_imputed_scaled = pd.DataFrame(imputer.fit_transform(df_scaled), columns=df.columns)

    ```

    - **Elección del número de vecinos (\( K \))**: El número de vecinos a utilizar puede variar según el tipo de datos y la cantidad de valores faltantes. Generalmente, se prueba con distintos valores de \( K \) y se evalúa cuál proporciona mejores resultados para el conjunto de datos.

    La imputación por KNN es útil cuando los valores faltantes están relacionados con otras observaciones cercanas en el espacio de características, proporcionando una forma eficiente de imputar datos faltantes sin introducir sesgos arbitrarios.

    Paola Alapizco

    Paola Alapizco

    student•
    hace 2 años

    🤔 Creo que uno de los puntos importantes a destacar de este modulo, es la distribución que siguen los valores faltantes una vez imputados respecto a la distribución de los valores completos.

    Valor único que utiliza un valor estadístico (media, moda o mediana) de la variable (columna) para rellenar los valores faltantes.

    Donde la distribución de los valores completos es mucho más aplanada (valores muy dispersos respecto de la media), mientras que los valores faltantes al haber sido imputados con el valor de la media tienen una distribución/forma leptocúrtica donde los valores se concentran al rededor de la media. Es obvio al haber sido rellenados con este valor 😅.

    <img height="330" width="333" src="https://res.cloudinary.com/dmwsbri4c/image/upload/v1714434881/imputation_mean.png" />

    Llenado hacia adelante, utiliza el último valor conocido antes del valor faltante para rellenarlo.

    Llenado hacia atrás, utiliza el primer valor conocido después del valor faltante para rellenarlo.

    En ambos casos los valores imputados se dispersan de manera uniforme entre los datos completos, mientras que la distribución de los valores faltantes imputados es mucho más aplanada y con los valores más dispersos respecto de la media en comparación con la distribución de los valores completos.

    ffill()

    <img height="336" width="340" src="https://res.cloudinary.com/dmwsbri4c/image/upload/v1714434881/ffill.png" />

    bfill()

    <img height="338" width="340" src="https://res.cloudinary.com/dmwsbri4c/image/upload/v1714434881/bfill.png" />

    K-vecinos más cercanos, el cuál imputa el valor de la media de esos vecinos más próximos al valor faltante, al realizar el proceso de imputación con este algoritmo obtenemos una distribución de los valores faltantes más parecida a la distribución de los valores completos.

    <img height="339" width="340" src="https://res.cloudinary.com/dmwsbri4c/image/upload/v1714434881/imputation_knn.png" />

    A diferencia del llenado hacia adelante y hacia atrás, los valores imputados son más próximos entre si.

    Federico Mario

    Federico Mario

    student•
    hace 3 años

    En vez de usar un Ordinal encoder que asigna valores aleatoriamente, no sería mejor utilizar el método replace y darle un valor mas razonable a cada categoría? Ej:

    • Excellent... . 4
    • Very good ..3
    • Good .. .. . 2
    • Fair or... .. .1
    • Poor?... .. ..0
      Mauricio Estrada

      Mauricio Estrada

      student•
      hace 3 años

      Pero si haces eso, ¿no tendrías que conocer siempre todas tus categorías?

      Federico Mario

      Federico Mario

      student•
      hace 2 años

      Si, es correcto, pero en este caso, se pueden conocer fácilmente aplicando la función unique() de pandas.

    Mauro Benito Montoya Arenas

    Mauro Benito Montoya Arenas

    student•
    hace 3 años

    ¿Y cual es la distancia y cant. de vecinos que usaremos?. No explico nada de eso

      Mario Chavez

      Mario Chavez

      student•
      hace 2 años

      Si corres help(sklearn.impute.KNNImputer()) te da la documentacion del metodo donde dice que como default utiliza los 5 vecinos mas cercanos y la distancia pues sera la mas corta dependiendo de los vecions.

      Valentina Cobo Paz

      Valentina Cobo Paz

      student•
      hace un año

      Depende de tus datos, para la distancia, por ejemplo la Euclidiana se utiliza normalmente para datos numéricos y es sensible a la diferencia de escala y puede ser útil normalizar antes los datos. La D Manhattan tambien se usa para datos numpericos, sobretodo si las dimensiones son más importantes que las distancias absolutas. Podrías revisar mas distancias y cuales se ajustan a los datos que vas a usar.

      La cantidad de vecinos (k) puedes sacarla usando validación cruzada. divides el conjunto de datos en test y train, defines un rango de k, para cada valor de k, realiza la imputación de datos faltantes en el conjunto de entrenamiento y evalúa el rendimiento en el conjunto de validación. La evaluación puede hacerse comparando métricas como la media cuadrática del error (MSE) o el error absoluto medio (MAE) para datos numéricos, o precisión, recall, F1-score para datos categóricos.

    Mauricio Hurtado

    Mauricio Hurtado

    student•
    hace 5 meses

    Para evaluar la corrección de la imputación con KNN, puedes seguir estos pasos:

    1. Comparación con los valores reales: Si tienes un conjunto de datos donde los valores originales son conocidos, compara las imputaciones KNN con estos valores para calcular métricas de error como RMSE (Root Mean Square Error).

    2. Visualización: Utiliza gráficos para comparar la distribución de los datos originales y los datos imputados. Un histograma puede ayudar a visualizar si la imputación mantiene la forma de la distribución.

    3. Validación cruzada: Realiza validación cruzada en tu modelo para comprobar cómo se comporta la imputación en diferentes subconjuntos del conjunto de datos.

    4. Análisis de sensibilidad: Cambia los parámetros de K (número de vecinos) y observa si la imputación varía significativamente. Esto puede indicar la estabilidad del método.

    5. Evaluar con otros métodos: Compara KNN con otras técnicas de imputación (media, mediana, MICE) para ver cuál produce resultados más precisos y coherentes.

    Estas técnicas te ayudarán a determinar la efectividad de tu imputación con KNN.

    Andrés Cardona

    Andrés Cardona

    student•
    hace 2 años

    Alguien tiene el archivo con la función de scatter_imputation_plot()? en el que yo tengo no está la función y no me funciona.

      Pablo Alejandro Figueroa

      Pablo Alejandro Figueroa

      student•
      hace 2 años
      def scatter_imputation_plot( self, x, y, imputation_suffix="_imp", show_marginal=False, **kwargs ): x_imputed = f"{ x }{ imputation_suffix }" y_imputed = f"{ y }{ imputation_suffix }" plot_func = sns.scatterplot if not show_marginal else sns.jointplot return ( self._obj[[x, y, x_imputed, y_imputed]] .assign(is_imputed=lambda df: df[x_imputed] | df[y_imputed]) .pipe(lambda df: (plot_func(data=df, x=x, y=y, hue="is_imputed", **kwargs))) )
      Andrés Cardona

      Andrés Cardona

      student•
      hace 2 años

      Gracias Pablo!!

    Andres Sanchez

    Andres Sanchez

    student•
    hace 2 años

    13. Imputación por KNN en Python

    knn_imputer = sklearn.impute.KNNImputer() nhanes_df_knn = nhanes_transformed_df.missing.sort_variables_by_missingness(ascending=True).copy(deep=True) nhanes_df_knn.iloc[:, :] = knn_imputer.fit_transform(nhanes_transformed_df.missing.sort_variables_by_missingness(ascending=True)).round() nhanes_df_knn.head(20)
    ( pd.concat( [ nhanes_df_knn, nhanes_df.missing.create_shadow_matrix(True, False, suffix='_imp',only_missing=True) ], axis=1 ) .missing.scatter_imputation_plot( x='height', y='weight', ) )
      Pablo Alejandro Figueroa

      Pablo Alejandro Figueroa

      student•
      hace 2 años

      Gracias..!

Escuelas

  • Desarrollo Web
    • Fundamentos del Desarrollo Web Profesional
    • Diseño y Desarrollo Frontend
    • Desarrollo Frontend con JavaScript
    • Desarrollo Frontend con Vue.js
    • Desarrollo Frontend con Angular
    • Desarrollo Frontend con React.js
    • Desarrollo Backend con Node.js
    • Desarrollo Backend con Python
    • Desarrollo Backend con Java
    • Desarrollo Backend con PHP
    • Desarrollo Backend con Ruby
    • Bases de Datos para Web
    • Seguridad Web & API
    • Testing Automatizado y QA para Web
    • Arquitecturas Web Modernas y Escalabilidad
    • DevOps y Cloud para Desarrolladores Web
  • English Academy
    • Inglés Básico A1
    • Inglés Básico A2
    • Inglés Intermedio B1
    • Inglés Intermedio Alto B2
    • Inglés Avanzado C1
    • Inglés para Propósitos Específicos
    • Inglés de Negocios
  • Marketing Digital
    • Fundamentos de Marketing Digital
    • Marketing de Contenidos y Redacción Persuasiva
    • SEO y Posicionamiento Web
    • Social Media Marketing y Community Management
    • Publicidad Digital y Paid Media
    • Analítica Digital y Optimización (CRO)
    • Estrategia de Marketing y Growth
    • Marketing de Marca y Comunicación Estratégica
    • Marketing para E-commerce
    • Marketing B2B
    • Inteligencia Artificial Aplicada al Marketing
    • Automatización del Marketing
    • Marca Personal y Marketing Freelance
    • Ventas y Experiencia del Cliente
    • Creación de Contenido para Redes Sociales
  • Inteligencia Artificial y Data Science
    • Fundamentos de Data Science y AI
    • Análisis y Visualización de Datos
    • Machine Learning y Deep Learning
    • Data Engineer
    • Inteligencia Artificial para la Productividad
    • Desarrollo de Aplicaciones con IA
    • AI Software Engineer
  • Ciberseguridad
    • Fundamentos de Ciberseguridad
    • Hacking Ético y Pentesting (Red Team)
    • Análisis de Malware e Ingeniería Forense
    • Seguridad Defensiva y Cumplimiento (Blue Team)
    • Ciberseguridad Estratégica
  • Liderazgo y Habilidades Blandas
    • Fundamentos de Habilidades Profesionales
    • Liderazgo y Gestión de Equipos
    • Comunicación Avanzada y Oratoria
    • Negociación y Resolución de Conflictos
    • Inteligencia Emocional y Autogestión
    • Productividad y Herramientas Digitales
    • Gestión de Proyectos y Metodologías Ágiles
    • Desarrollo de Carrera y Marca Personal
    • Diversidad, Inclusión y Entorno Laboral Saludable
    • Filosofía y Estrategia para Líderes
  • Diseño de Producto y UX
    • Fundamentos de Diseño UX/UI
    • Investigación de Usuarios (UX Research)
    • Arquitectura de Información y Usabilidad
    • Diseño de Interfaces y Prototipado (UI Design)
    • Sistemas de Diseño y DesignOps
    • Redacción UX (UX Writing)
    • Creatividad e Innovación en Diseño
    • Diseño Accesible e Inclusivo
    • Diseño Asistido por Inteligencia Artificial
    • Gestión de Producto y Liderazgo en Diseño
    • Diseño de Interacciones Emergentes (VUI/VR)
    • Desarrollo Web para Diseñadores
    • Diseño y Prototipado No-Code
  • Contenido Audiovisual
    • Fundamentos de Producción Audiovisual
    • Producción de Video para Plataformas Digitales
    • Producción de Audio y Podcast
    • Fotografía y Diseño Gráfico para Contenido Digital
    • Motion Graphics y Animación
    • Contenido Interactivo y Realidad Aumentada
    • Estrategia, Marketing y Monetización de Contenidos
  • Desarrollo Móvil
    • Fundamentos de Desarrollo Móvil
    • Desarrollo Nativo Android con Kotlin
    • Desarrollo Nativo iOS con Swift
    • Desarrollo Multiplataforma con React Native
    • Desarrollo Multiplataforma con Flutter
    • Arquitectura y Patrones de Diseño Móvil
    • Integración de APIs y Persistencia Móvil
    • Testing y Despliegue en Móvil
    • Diseño UX/UI para Móviles
  • Diseño Gráfico y Arte Digital
    • Fundamentos del Diseño Gráfico y Digital
    • Diseño de Identidad Visual y Branding
    • Ilustración Digital y Arte Conceptual
    • Diseño Editorial y de Empaques
    • Motion Graphics y Animación 3D
    • Diseño Gráfico Asistido por Inteligencia Artificial
    • Creatividad e Innovación en Diseño
  • Programación
    • Fundamentos de Programación e Ingeniería de Software
    • Herramientas de IA para el trabajo
    • Matemáticas para Programación
    • Programación con Python
    • Programación con JavaScript
    • Programación con TypeScript
    • Programación Orientada a Objetos con Java
    • Desarrollo con C# y .NET
    • Programación con PHP
    • Programación con Go y Rust
    • Programación Móvil con Swift y Kotlin
    • Programación con C y C++
    • Administración Básica de Servidores Linux
  • Negocios
    • Fundamentos de Negocios y Emprendimiento
    • Estrategia y Crecimiento Empresarial
    • Finanzas Personales y Corporativas
    • Inversión en Mercados Financieros
    • Ventas, CRM y Experiencia del Cliente
    • Operaciones, Logística y E-commerce
    • Gestión de Proyectos y Metodologías Ágiles
    • Aspectos Legales y Cumplimiento
    • Habilidades Directivas y Crecimiento Profesional
    • Diversidad e Inclusión en el Entorno Laboral
    • Herramientas Digitales y Automatización para Negocios
  • Blockchain y Web3
    • Fundamentos de Blockchain y Web3
    • Desarrollo de Smart Contracts y dApps
    • Finanzas Descentralizadas (DeFi)
    • NFTs y Economía de Creadores
    • Seguridad Blockchain
    • Ecosistemas Blockchain Alternativos (No-EVM)
    • Producto, Marketing y Legal en Web3
  • Recursos Humanos
    • Fundamentos y Cultura Organizacional en RRHH
    • Atracción y Selección de Talento
    • Cultura y Employee Experience
    • Gestión y Desarrollo de Talento
    • Desarrollo y Evaluación de Liderazgo
    • Diversidad, Equidad e Inclusión
    • AI y Automatización en Recursos Humanos
    • Tecnología y Automatización en RRHH
  • Finanzas e Inversiones
    • Fundamentos de Finanzas Personales y Corporativas
    • Análisis y Valoración Financiera
    • Inversión y Mercados de Capitales
    • Finanzas Descentralizadas (DeFi) y Criptoactivos
    • Finanzas y Estrategia para Startups
    • Inteligencia Artificial Aplicada a Finanzas
    • Domina Excel
    • Financial Analyst
    • Conseguir trabajo en Finanzas e Inversiones
  • Startups
    • Fundamentos y Validación de Ideas
    • Estrategia de Negocio y Product-Market Fit
    • Desarrollo de Producto y Operaciones Lean
    • Finanzas, Legal y Fundraising
    • Marketing, Ventas y Growth para Startups
    • Cultura, Talento y Liderazgo
    • Finanzas y Operaciones en Ecommerce
    • Startups Web3 y Blockchain
    • Startups con Impacto Social
    • Expansión y Ecosistema Startup
  • Cloud Computing y DevOps
    • Fundamentos de Cloud y DevOps
    • Administración de Servidores Linux
    • Contenerización y Orquestación
    • Infraestructura como Código (IaC) y CI/CD
    • Amazon Web Services
    • Microsoft Azure
    • Serverless y Observabilidad
    • Certificaciones Cloud (Preparación)
    • Plataforma Cloud GCP

Platzi y comunidad

  • Platzi Business
  • Live Classes
  • Lanzamientos
  • Executive Program
  • Trabaja con nosotros
  • Podcast

Recursos

  • Manual de Marca

Soporte

  • Preguntas Frecuentes
  • Contáctanos

Legal

  • Términos y Condiciones
  • Privacidad
  • Tyc promociones
Reconocimientos
Reconocimientos
Logo reconocimientoTop 40 Mejores EdTech del mundo · 2024
Logo reconocimientoPrimera Startup Latina admitida en YC · 2014
Logo reconocimientoPrimera Startup EdTech · 2018
Logo reconocimientoCEO Ganador Medalla por la Educación T4 & HP · 2024
Logo reconocimientoCEO Mejor Emprendedor del año · 2024
De LATAM conpara el mundo
YoutubeInstagramLinkedInTikTokFacebookX (Twitter)Threads