CursosEmpresasBlogLiveConfPrecios

Evaluando resultados de hierarchical clustering

Clase 13 de 27 • Curso de Clustering con Python y scikit-learn

Clase anteriorSiguiente clase

Contenido del curso

Fundamentos de clustering

  • 1
    ¿Qué es el clustering en machine learning?

    ¿Qué es el clustering en machine learning?

    04:01 min
  • 2
    Tu primer clustering con scikit-learn

    Tu primer clustering con scikit-learn

    16:57 min
  • 3
    ¿Cuándo usar clustering?

    ¿Cuándo usar clustering?

    05:00 min
  • 4
    ¿Cómo evaluar modelos de clustering?

    ¿Cómo evaluar modelos de clustering?

    12:00 min

K-means

  • 5
    ¿Qué es el algoritmo de K-means y cómo funciona?

    ¿Qué es el algoritmo de K-means y cómo funciona?

    07:30 min
  • 6
    ¿Cuándo usar K-means?

    ¿Cuándo usar K-means?

    03:24 min
  • 7
    Implementando K-means

    Implementando K-means

    14:08 min
  • 8
    Encontrando K

    Encontrando K

    13:06 min
  • 9
    Evaluando resultados de K-means

    Evaluando resultados de K-means

    04:21 min

Hierarchical clustering

  • 10
    ¿Qué es hierarchical clustering y cómo funciona?

    ¿Qué es hierarchical clustering y cómo funciona?

    04:56 min
  • 11
    ¿Cuándo usar hierarchical clustering?

    ¿Cuándo usar hierarchical clustering?

    02:07 min
  • 12
    Implementando hierarchical clustering

    Implementando hierarchical clustering

    09:40 min
  • 13
    Evaluando resultados de hierarchical clustering

    Evaluando resultados de hierarchical clustering

    Viendo ahora

DBSCAN

  • 14
    ¿Qué es DBSCAN y cómo funciona?

    ¿Qué es DBSCAN y cómo funciona?

    08:27 min
  • 15
    ¿Cuándo usar DBSCAN?

    ¿Cuándo usar DBSCAN?

    02:28 min
  • 16
    Implementando DBSCAN

    Implementando DBSCAN

    09:11 min
  • 17
    Encontrar híper-parámetros

    Encontrar híper-parámetros

    14:33 min
  • 18
    Evaluando resultados de DBSCAN

    Evaluando resultados de DBSCAN

    07:35 min

Proyecto: resolviendo un problema con clustering

  • 19
    Preparar datos para clusterizar

    Preparar datos para clusterizar

    13:30 min
  • 20
    Aplicando PCA para clustering

    Aplicando PCA para clustering

    12:08 min
  • 21
    Resolviendo con K-means

    Resolviendo con K-means

    09:24 min
  • 22
    Resolviendo con hierarchical clustering

    Resolviendo con hierarchical clustering

    07:12 min
  • 23
    Resolviendo con DBSCAN

    Resolviendo con DBSCAN

    17:25 min
  • 24
    Resolviendo con DBSCAN (sin PCA)

    Resolviendo con DBSCAN (sin PCA)

    05:24 min
  • 25
    Evaluación resultados de distintos modelos de clustering

    Evaluación resultados de distintos modelos de clustering

    10:47 min

Conclusiones

  • 26
    Proyecto final y cierre

    Proyecto final y cierre

    02:32 min
  • 27

    Comparte tu proyecto de segmentación con clustering y certifícate

    Alfonso Andres Zapata Guzman

    Alfonso Andres Zapata Guzman

    student•
    hace 3 años

    Lo mismo pero con plotly, me guie de este codigo https://chart-studio.plotly.com/~Diksha_Gabha/2853.embed, pero le solucione errores que tenia que no permitian visualizar algunas funciones y sustitui librerias antiguas por sus equivalentes actuales.

    import plotly.graph_objects as go from plotly.subplots import make_subplots from __future__ import print_function from sklearn.datasets import make_blobs from sklearn.cluster import KMeans from sklearn.metrics import silhouette_samples, silhouette_score import matplotlib import matplotlib.pyplot as plt import matplotlib.cm as cm import numpy as np range_n_clusters = [2, 3, 4, 5, 6] figures = [] for n_clusters in range_n_clusters: # Create a subplot with 1 row and 2 columns fig = make_subplots(rows=1, cols=2, print_grid=False, subplot_titles=('The silhouette plot for the various clusters.', 'The visualization of the clustered data.')) # The 1st subplot is the silhouette plot # The silhouette coefficient can range from -1, 1 but in this example all # lie within [-0.1, 1] fig['layout']['xaxis1'].update(title='The silhouette coefficient values', range=[-0.1, 1]) # The (n_clusters+1)*10 is for inserting blank space between silhouette # plots of individual clusters, to demarcate them clearly. fig['layout']['yaxis1'].update(title='Cluster label', showticklabels=False, range=[0, len(X) + (n_clusters + 1) * 10]) # Initialize the clusterer with n_clusters value and a random generator # seed of 10 for reproducibility. clusterer = AgglomerativeClustering(n_clusters=n_clusters, metric='euclidean', linkage='ward') cluster_labels = clusterer.fit_predict(X) # The silhouette_score gives the average value for all the samples. # This gives a perspective into the density and separation of the formed # clusters silhouette_avg = silhouette_score(X, cluster_labels) print( "For n_clusters =", n_clusters, "The average silhouette_score is :", silhouette_avg, ) # Compute the silhouette scores for each sample sample_silhouette_values = silhouette_samples(X, cluster_labels) y_lower = 10 color = [] for i in range(n_clusters): # Aggregate the silhouette scores for samples belonging to # cluster i, and sort them ith_cluster_silhouette_values = \ sample_silhouette_values[cluster_labels == i] ith_cluster_silhouette_values.sort() size_cluster_i = ith_cluster_silhouette_values.shape[0] y_upper = y_lower + size_cluster_i colors = matplotlib.colors.colorConverter.to_rgb(cm.nipy_spectral(float(i) / n_clusters)) colors = 'rgb'+str(colors) color.append(colors) filled_area = go.Scatter(y=np.arange(y_lower, y_upper), x=ith_cluster_silhouette_values, mode='lines', showlegend=False, line=dict(width=0.5, color=colors), fill='tozerox', name='Silhouette') fig.add_traces(filled_area, 1, 1) # Compute the new y_lower for next plot y_lower = y_upper + 10 # 10 for the 0 samples # The vertical line for average silhouette score of all the values axis_line = go.Scatter(x=[silhouette_avg, silhouette_avg], y=[0, y_upper], showlegend=False, mode='lines', line=dict(color="red", dash='dash', width =2) ) fig.append_trace(axis_line, 1, 1) # 2nd Plot showing the actual clusters formed clusters = go.Scatter(x=X[:, 0], y=X[:, 1], showlegend=False, mode='markers', marker=dict(color=cluster_labels, size=4, colorscale=color), name='Data' ) fig.append_trace(clusters, 1, 2) # # Labeling the clusters # centers_ = clusterer.cluster_centers_ # # Draw white circles at cluster centers # centers = go.Scatter(x=centers_[:, 0], # y=centers_[:, 1], # showlegend=False, # mode='markers', # marker=dict(color='green', size=10, # line=dict(color='black', # width=1)) # ) # fig.append_trace(centers, 1, 2) fig['layout']['xaxis2'].update(title='Feature space for the 1st feature', zeroline=False) fig['layout']['yaxis2'].update(title='Feature space for the 2nd feature', zeroline=False) fig['layout'].update(title="Silhouette analysis for KMeans clustering on sample data " "with n_clusters = %d" % n_clusters) fig.update_layout(showlegend=True) figures.append(fig) fig.show()

    Quizas requieras:

    # !pip install chart_studio
    Captura de pantalla 2023-01-19 064533.png
      Luis Ernesto Domínguez Velásquez

      Luis Ernesto Domínguez Velásquez

      student•
      hace 2 años

      Excelente estimado Alfonso.

      Alfonso Andres Zapata Guzman

      Alfonso Andres Zapata Guzman

      student•
      hace 2 años

      Gracias man.


      ~ Que tal Platzinauta, ya conectamos en LinkedIn? ~

      ¡Que estas esperando! Conectemos en LinkedIn, GitHub, Medium, Redes sociales o unete al mejor servidor de Discord sobre Python y ciencia de datos en español.

    Jhon Sanchez

    Jhon Sanchez

    student•
    hace 2 años

    seria interesante ver es sobre bases de datos no con la generacion aleatoria de datos.

    johan Stever Rodriguez Molina

    johan Stever Rodriguez Molina

    student•
    hace 3 años

    Esta función tal vez pueda ser de ayuda para visualizar el silhouette_score(avg) y el silhouette_samples.

    def plot_silhouette(df,X,y, clust_var_name=""): """ Args: - clust_var_name:string Nombre columna con el valor del cluster asignado a cada observacion(y_pred) - df: DataFrame con los features y la columna clust_var_name - X: np.Array Array con los features - y: np.Array Array con los valores de la prediccion del cluster """ silhouette = round(silhouette_score(X,y),2) samples = silhouette_samples(X,y) df["silhouette_samples"] = samples clusters = df[clust_var_name].unique() n_samples = len(df) y_pos = n_samples*0.05 for i,cluster in enumerate(clusters): df_aux = df[df[clust_var_name] == cluster].sort_values("silhouette_samples") plt.figure(i) df_aux["silhouette_samples"].plot(kind="barh") plt.vlines(x=silhouette,ymin=0,ymax=n_samples,linestyles="--",color ='red') plt.text(x=0.8,y=y_pos,s=f"avg_silhouette_score: {silhouette}") plt.xlabel("silhouette_score") plt.ylabel("n_sample") plt.yticks([]) plt.title(f"Sample silhouettes for custer {cluster}")
    FELIX  DAVID CORDOVA GARCIA

    FELIX DAVID CORDOVA GARCIA

    student•
    hace 3 años

    Excelentes explicaciones, hacia falta curso¡

    David Duque Uribe

    David Duque Uribe

    student•
    hace 3 años

    ¿Por que suelen poner la letra X en mayusucula?

      Eugenio Schiavoni

      Eugenio Schiavoni

      student•
      hace 2 años

      Pasa que en el contexto de la inteligencia artificial y el aprendizaje automático, se utiliza la convención de usar "X" mayúscula para representar las características o variables independientes y "y" minúscula para representar la variable dependiente o la variable objetivo.

      Esta convención se basa en la notación matemática tradicional, donde las variables independientes se representan comúnmente con letras mayúsculas (como "X") y la variable dependiente se representa con una letra minúscula (como "y"). Esta convención se aplica a muchas áreas de la ciencia y la estadística, y se ha adoptado en el campo del aprendizaje automático para mantener la consistencia y facilitar la comprensión de los conceptos.

    Nixon Rolando García Ramírez

    Nixon Rolando García Ramírez

    student•
    hace 3 años

    Uff me encanto esta clase, mas que todo la forma tan clara de ver los K , con los graficos de velas y su respectiva clasificacion al lado.💪💪💪💪

    Gerardo Jesus Ignacio Villacorta

    Gerardo Jesus Ignacio Villacorta

    student•
    hace 3 años

    ¡Buena clase! Sigo este curso con un dataset de transacciones con y sin fraude, comparto en la imagen la gráfica de mi índice de silhouette para 2 clusters, estoy aún dandole una explicación porque de los 400 puntos o trasacciones solo 2 corresponden al cluster 1 y 398 al cluster 2, y por ello el ancho tan delgado y grueso respectivamente. Entendería que aún debo seguir trabajando en la variables de mi dataset para tener mejores resultados. ¡Todo feedback es bienbenido! Gracias de antemano.

    coeficiente de silhouette.JPG
      Julián Cárdenas

      Julián Cárdenas

      student•
      hace 2 años

      Vea pues interesante DataSet!

    Mario Alexander Vargas Celis

    Mario Alexander Vargas Celis

    student•
    hace 4 meses

    Para evaluar los resultados del clustering jerárquico (hierarchical clustering), puedes aplicar métricas internas similares a las usadas en otros algoritmos como K-means. Aquí te muestro cómo hacerlo y con qué herramientas:

    📊 1. Silhouette Score

    Mide qué tan bien están separados los clústeres:

    from sklearn.metrics import silhouette_score

    score = silhouette_score(X_scaled, y_hc) print(f"Silhouette Score: {score:.3f}")

    • Rango: de -1 a 1. Mientras más cercano a 1, mejor definidos están los grupos.

    🧮 2. Calinski-Harabasz Index

    Mide la dispersión entre clústeres frente a la dispersión dentro del clúster:

    from sklearn.metrics import calinski_harabasz_score

    score = calinski_harabasz_score(X_scaled, y_hc) print(f"Calinski-Harabasz Index: {score:.2f}")

    • Interpretación: cuanto mayor el valor, mejor separados están los clústeres.

    🔢 3. Davies-Bouldin Index

    Mide la similitud entre clústeres; valores más bajos son mejores:

    from sklearn.metrics import davies_bouldin_score

    score = davies_bouldin_score(X_scaled, y_hc) print(f"Davies-Bouldin Index: {score:.3f}")

    🌳 4. Visualización con dendrograma

    Si usas scipy, puedes generar un dendrograma para inspección visual:

    import scipy.cluster.hierarchy as sch import matplotlib.pyplot as plt

    plt.figure(figsize=(10, 6)) dendrogram = sch.dendrogram(sch.linkage(X_scaled, method='ward')) plt.title('Dendrograma') plt.xlabel('Muestras') plt.ylabel('Distancia') plt.show()

    ✅ Conclusión

    Métrica¿Qué mide?IdealSilhouette ScoreSeparación y compactaciónCercano a 1Calinski-Harabasz IndexDispersión entre/intra gruposAltoDavies-Bouldin IndexSimilitud entre clústeresBajo

    Daniel Andres Rojas Paredes

    Daniel Andres Rojas Paredes

    student•
    hace 7 meses

    la confirmacion visual no es la unica forma de evaluacion. puedes pedirle a chat gtp que te de un script con las metricas de coef de siluetta para evaluarlo si usas un lector de pantalla tambien teniendo en cuenta el numero de puntos por cluster para ver si estan balanceados , la altura de el dendograma y la media minima y maxima de cada coeficiente de silueta individual por cada sample

    ✅ High confidence answer — This is a standard question in clustering analysis.

    To select the right number of clusters based on your metrics (like silhouette score and dendrogram cut height), you should use a combination of criteria:

    ✅ 1. Silhouette Score (Primary Metric)

    • Goal: Find the number of clusters with the highest average silhouette score.
    • Interpretation:
      • Close to 1.0: points are well-matched to their cluster and far from others → ideal.
      • Around 0.5: okay, clusters are present but overlapping.
      • Below 0.3: clustering is probably meaningless or too fine-grained.
    • Watch out: The silhouette score tends to decrease as you increase the number of clusters (due to overfitting), so you want the peak, not just the highest number.

    ✅ 2. Silhouette Score Distribution (Per Cluster)

    • Check the mean, min, and max per cluster (as you’re printing).
    • Watch for:
      • Very low or negative min values → some points are in the wrong cluster.
      • Large variation between clusters → clustering may be imbalanced.
    • Ideal: Silhouette scores are consistently high across all clusters.

    ✅ 3. Dendrogram Cut Height

    • From the linkage_matrix, the average cut height gives a sense of separation between clusters.
    • Larger height differences in the final merges (i.e., when going from k+1 to k clusters) suggest that the new merge combines dissimilar clusters, which might be a bad sign.
    • You may look for an "elbow" or a sudden drop in cut height → that’s often a good place to stop merging.

    ✅ 4. Cluster Balance

    • Use Counter(cluster_ids) to check sample count per cluster.
    • Heavily unbalanced sizes (like 290 vs. 10) may suggest bad clustering, unless justified by domain knowledge.

    🚫 What Not to Do

    • Never use test accuracy, because this is unsupervised learning (no labels).
    • Don't just blindly pick the n_clusters with the biggest number of clusters or sharpest cut unless other metrics agree.

    🧠 Tip: Combine visually

    If you generate:

    • Silhouette plots per cluster
    • Dendrograms …you can often visually confirm what the metrics suggest.

    Would you like a summary table format or diagram to help track these values for each k?

    Jorber Andrés Pardo Franco

    Jorber Andrés Pardo Franco

    student•
    hace un año

    Son dos Algoritmos de gran relevancia en el Machine learning aprendizaje no supervisado, fáciles de comprender y usar acorde a nuestro dataframe, amplia la visión de dendrograma a conjunto de ven, un buen contraste para así comprender El proceso.

    Antonio Demarco Bonino

    Antonio Demarco Bonino

    student•
    hace un año

    Me encantaron los dos, aunque creo que hierarchical clustering es más eficiente para averiguar cuantos tipos diferentes de grupos hay. En cambio, el K-means es más eficiente cuando tenemos ya la cantidad de centroides.

Escuelas

  • Desarrollo Web
    • Fundamentos del Desarrollo Web Profesional
    • Diseño y Desarrollo Frontend
    • Desarrollo Frontend con JavaScript
    • Desarrollo Frontend con Vue.js
    • Desarrollo Frontend con Angular
    • Desarrollo Frontend con React.js
    • Desarrollo Backend con Node.js
    • Desarrollo Backend con Python
    • Desarrollo Backend con Java
    • Desarrollo Backend con PHP
    • Desarrollo Backend con Ruby
    • Bases de Datos para Web
    • Seguridad Web & API
    • Testing Automatizado y QA para Web
    • Arquitecturas Web Modernas y Escalabilidad
    • DevOps y Cloud para Desarrolladores Web
  • English Academy
    • Inglés Básico A1
    • Inglés Básico A2
    • Inglés Intermedio B1
    • Inglés Intermedio Alto B2
    • Inglés Avanzado C1
    • Inglés para Propósitos Específicos
    • Inglés de Negocios
  • Marketing Digital
    • Fundamentos de Marketing Digital
    • Marketing de Contenidos y Redacción Persuasiva
    • SEO y Posicionamiento Web
    • Social Media Marketing y Community Management
    • Publicidad Digital y Paid Media
    • Analítica Digital y Optimización (CRO)
    • Estrategia de Marketing y Growth
    • Marketing de Marca y Comunicación Estratégica
    • Marketing para E-commerce
    • Marketing B2B
    • Inteligencia Artificial Aplicada al Marketing
    • Automatización del Marketing
    • Marca Personal y Marketing Freelance
    • Ventas y Experiencia del Cliente
    • Creación de Contenido para Redes Sociales
  • Inteligencia Artificial y Data Science
    • Fundamentos de Data Science y AI
    • Análisis y Visualización de Datos
    • Machine Learning y Deep Learning
    • Data Engineer
    • Inteligencia Artificial para la Productividad
    • Desarrollo de Aplicaciones con IA
    • AI Software Engineer
  • Ciberseguridad
    • Fundamentos de Ciberseguridad
    • Hacking Ético y Pentesting (Red Team)
    • Análisis de Malware e Ingeniería Forense
    • Seguridad Defensiva y Cumplimiento (Blue Team)
    • Ciberseguridad Estratégica
  • Liderazgo y Habilidades Blandas
    • Fundamentos de Habilidades Profesionales
    • Liderazgo y Gestión de Equipos
    • Comunicación Avanzada y Oratoria
    • Negociación y Resolución de Conflictos
    • Inteligencia Emocional y Autogestión
    • Productividad y Herramientas Digitales
    • Gestión de Proyectos y Metodologías Ágiles
    • Desarrollo de Carrera y Marca Personal
    • Diversidad, Inclusión y Entorno Laboral Saludable
    • Filosofía y Estrategia para Líderes
  • Diseño de Producto y UX
    • Fundamentos de Diseño UX/UI
    • Investigación de Usuarios (UX Research)
    • Arquitectura de Información y Usabilidad
    • Diseño de Interfaces y Prototipado (UI Design)
    • Sistemas de Diseño y DesignOps
    • Redacción UX (UX Writing)
    • Creatividad e Innovación en Diseño
    • Diseño Accesible e Inclusivo
    • Diseño Asistido por Inteligencia Artificial
    • Gestión de Producto y Liderazgo en Diseño
    • Diseño de Interacciones Emergentes (VUI/VR)
    • Desarrollo Web para Diseñadores
    • Diseño y Prototipado No-Code
  • Contenido Audiovisual
    • Fundamentos de Producción Audiovisual
    • Producción de Video para Plataformas Digitales
    • Producción de Audio y Podcast
    • Fotografía y Diseño Gráfico para Contenido Digital
    • Motion Graphics y Animación
    • Contenido Interactivo y Realidad Aumentada
    • Estrategia, Marketing y Monetización de Contenidos
  • Desarrollo Móvil
    • Fundamentos de Desarrollo Móvil
    • Desarrollo Nativo Android con Kotlin
    • Desarrollo Nativo iOS con Swift
    • Desarrollo Multiplataforma con React Native
    • Desarrollo Multiplataforma con Flutter
    • Arquitectura y Patrones de Diseño Móvil
    • Integración de APIs y Persistencia Móvil
    • Testing y Despliegue en Móvil
    • Diseño UX/UI para Móviles
  • Diseño Gráfico y Arte Digital
    • Fundamentos del Diseño Gráfico y Digital
    • Diseño de Identidad Visual y Branding
    • Ilustración Digital y Arte Conceptual
    • Diseño Editorial y de Empaques
    • Motion Graphics y Animación 3D
    • Diseño Gráfico Asistido por Inteligencia Artificial
    • Creatividad e Innovación en Diseño
  • Programación
    • Fundamentos de Programación e Ingeniería de Software
    • Herramientas de IA para el trabajo
    • Matemáticas para Programación
    • Programación con Python
    • Programación con JavaScript
    • Programación con TypeScript
    • Programación Orientada a Objetos con Java
    • Desarrollo con C# y .NET
    • Programación con PHP
    • Programación con Go y Rust
    • Programación Móvil con Swift y Kotlin
    • Programación con C y C++
    • Administración Básica de Servidores Linux
  • Negocios
    • Fundamentos de Negocios y Emprendimiento
    • Estrategia y Crecimiento Empresarial
    • Finanzas Personales y Corporativas
    • Inversión en Mercados Financieros
    • Ventas, CRM y Experiencia del Cliente
    • Operaciones, Logística y E-commerce
    • Gestión de Proyectos y Metodologías Ágiles
    • Aspectos Legales y Cumplimiento
    • Habilidades Directivas y Crecimiento Profesional
    • Diversidad e Inclusión en el Entorno Laboral
    • Herramientas Digitales y Automatización para Negocios
  • Blockchain y Web3
    • Fundamentos de Blockchain y Web3
    • Desarrollo de Smart Contracts y dApps
    • Finanzas Descentralizadas (DeFi)
    • NFTs y Economía de Creadores
    • Seguridad Blockchain
    • Ecosistemas Blockchain Alternativos (No-EVM)
    • Producto, Marketing y Legal en Web3
  • Recursos Humanos
    • Fundamentos y Cultura Organizacional en RRHH
    • Atracción y Selección de Talento
    • Cultura y Employee Experience
    • Gestión y Desarrollo de Talento
    • Desarrollo y Evaluación de Liderazgo
    • Diversidad, Equidad e Inclusión
    • AI y Automatización en Recursos Humanos
    • Tecnología y Automatización en RRHH
  • Finanzas e Inversiones
    • Fundamentos de Finanzas Personales y Corporativas
    • Análisis y Valoración Financiera
    • Inversión y Mercados de Capitales
    • Finanzas Descentralizadas (DeFi) y Criptoactivos
    • Finanzas y Estrategia para Startups
    • Inteligencia Artificial Aplicada a Finanzas
    • Domina Excel
    • Financial Analyst
    • Conseguir trabajo en Finanzas e Inversiones
  • Startups
    • Fundamentos y Validación de Ideas
    • Estrategia de Negocio y Product-Market Fit
    • Desarrollo de Producto y Operaciones Lean
    • Finanzas, Legal y Fundraising
    • Marketing, Ventas y Growth para Startups
    • Cultura, Talento y Liderazgo
    • Finanzas y Operaciones en Ecommerce
    • Startups Web3 y Blockchain
    • Startups con Impacto Social
    • Expansión y Ecosistema Startup
  • Cloud Computing y DevOps
    • Fundamentos de Cloud y DevOps
    • Administración de Servidores Linux
    • Contenerización y Orquestación
    • Infraestructura como Código (IaC) y CI/CD
    • Amazon Web Services
    • Microsoft Azure
    • Serverless y Observabilidad
    • Certificaciones Cloud (Preparación)
    • Plataforma Cloud GCP

Platzi y comunidad

  • Platzi Business
  • Live Classes
  • Lanzamientos
  • Executive Program
  • Trabaja con nosotros
  • Podcast

Recursos

  • Manual de Marca

Soporte

  • Preguntas Frecuentes
  • Contáctanos

Legal

  • Términos y Condiciones
  • Privacidad
  • Tyc promociones
Reconocimientos
Reconocimientos
Logo reconocimientoTop 40 Mejores EdTech del mundo · 2024
Logo reconocimientoPrimera Startup Latina admitida en YC · 2014
Logo reconocimientoPrimera Startup EdTech · 2018
Logo reconocimientoCEO Ganador Medalla por la Educación T4 & HP · 2024
Logo reconocimientoCEO Mejor Emprendedor del año · 2024
De LATAM conpara el mundo
YoutubeInstagramLinkedInTikTokFacebookX (Twitter)Threads