CursosEmpresasBlogLiveConfPrecios

Implementando K-means

Clase 7 de 27 • Curso de Clustering con Python y scikit-learn

Clase anteriorSiguiente clase

Contenido del curso

Fundamentos de clustering

  • 1
    ¿Qué es el clustering en machine learning?

    ¿Qué es el clustering en machine learning?

    04:01 min
  • 2
    Tu primer clustering con scikit-learn

    Tu primer clustering con scikit-learn

    16:57 min
  • 3
    ¿Cuándo usar clustering?

    ¿Cuándo usar clustering?

    05:00 min
  • 4
    ¿Cómo evaluar modelos de clustering?

    ¿Cómo evaluar modelos de clustering?

    12:00 min

K-means

  • 5
    ¿Qué es el algoritmo de K-means y cómo funciona?

    ¿Qué es el algoritmo de K-means y cómo funciona?

    07:30 min
  • 6
    ¿Cuándo usar K-means?

    ¿Cuándo usar K-means?

    03:24 min
  • 7
    Implementando K-means

    Implementando K-means

    Viendo ahora
  • 8
    Encontrando K

    Encontrando K

    13:06 min
  • 9
    Evaluando resultados de K-means

    Evaluando resultados de K-means

    04:21 min

Hierarchical clustering

  • 10
    ¿Qué es hierarchical clustering y cómo funciona?

    ¿Qué es hierarchical clustering y cómo funciona?

    04:56 min
  • 11
    ¿Cuándo usar hierarchical clustering?

    ¿Cuándo usar hierarchical clustering?

    02:07 min
  • 12
    Implementando hierarchical clustering

    Implementando hierarchical clustering

    09:40 min
  • 13
    Evaluando resultados de hierarchical clustering

    Evaluando resultados de hierarchical clustering

    06:44 min

DBSCAN

  • 14
    ¿Qué es DBSCAN y cómo funciona?

    ¿Qué es DBSCAN y cómo funciona?

    08:27 min
  • 15
    ¿Cuándo usar DBSCAN?

    ¿Cuándo usar DBSCAN?

    02:28 min
  • 16
    Implementando DBSCAN

    Implementando DBSCAN

    09:11 min
  • 17
    Encontrar híper-parámetros

    Encontrar híper-parámetros

    14:33 min
  • 18
    Evaluando resultados de DBSCAN

    Evaluando resultados de DBSCAN

    07:35 min

Proyecto: resolviendo un problema con clustering

  • 19
    Preparar datos para clusterizar

    Preparar datos para clusterizar

    13:30 min
  • 20
    Aplicando PCA para clustering

    Aplicando PCA para clustering

    12:08 min
  • 21
    Resolviendo con K-means

    Resolviendo con K-means

    09:24 min
  • 22
    Resolviendo con hierarchical clustering

    Resolviendo con hierarchical clustering

    07:12 min
  • 23
    Resolviendo con DBSCAN

    Resolviendo con DBSCAN

    17:25 min
  • 24
    Resolviendo con DBSCAN (sin PCA)

    Resolviendo con DBSCAN (sin PCA)

    05:24 min
  • 25
    Evaluación resultados de distintos modelos de clustering

    Evaluación resultados de distintos modelos de clustering

    10:47 min

Conclusiones

  • 26
    Proyecto final y cierre

    Proyecto final y cierre

    02:32 min
  • 27

    Comparte tu proyecto de segmentación con clustering y certifícate

    Juan Esteban

    Juan Esteban

    student•
    hace 3 años

    Detallen bien su escogencia del número de clusters cuando evalúen el rendimiento del modelo con el silhouette score. Aquí por ejemplo generé los datos con cuatro centroides como en la clase, e hice el entrenamiento del modelo con tres clusters y obtuve lo siguiente:

    descarga.png

    También realicé el entrenamiento con cuatro clusters y obtuve lo siguiente:

    descarga (1).png

    Observen que el silhouette score fue mejor (más cercano a 1) con tres clusters, pero de entrada sabemos que en realidad en los datos hay cuatro clusters diferentes, así que sí, no se confíen solo en la primera métrica que saquen, hay que detallar más los resultados :)

    Sergio Andres Rios Gomez

    Sergio Andres Rios Gomez

    student•
    hace 3 años

    Es necesario hacer la instalación de: !pip install yellowbrick

      Juan R. Vergara M.

      Juan R. Vergara M.

      student•
      hace 3 años

      Gracias 📝

    Alfonso Andres Zapata Guzman

    Alfonso Andres Zapata Guzman

    student•
    hace 3 años

    Si obtienes el error:

    AttributeError: 'NoneType' object has no attribute 'split'

    Soluciona con:

    !pip install threadpoolctl==3.1.0
      Giovany samaca

      Giovany samaca

      student•
      hace 3 años

      Que gran aporte Alfonso. ¿usaste google colab?

      Alfonso Andres Zapata Guzman

      Alfonso Andres Zapata Guzman

      student•
      hace 3 años

      No man, use jupyterlabs en un dockerfile. Creo que en las primeras clases en la seccion de comentarios lo deje, igualmente te dejo el enlace al repositorio de github, checalo que esta muy bueno.

      https://github.com/MaastrichtU-IDS/jupyterlab

    Juan José Mamani Tarqui

    Juan José Mamani Tarqui

    student•
    hace 2 años

    <u>En la clusterization es necesaria entrenar el modelo?</u>

    No, no siempre es necesario entrenar un modelo para la clusterización. Existen dos tipos principales de algoritmos de clusterización:

    1. Algoritmos no supervisados:

    • Estos algoritmos no requieren un conjunto de datos de entrenamiento con etiquetas predefinidas.
    • En cambio, agrupan los datos en función de sus similitudes intrínsecas.
    • Algunos ejemplos comunes son:
      • K-means: Divide los datos en un número predefinido de clusters.
      • Algoritmo de jerarquía ascendente (HAC): Crea una jerarquía de clusters a partir de los datos.
      • DBSCAN: Encuentra clusters de densidad variable.

    2. Algoritmos supervisados:

    • Estos algoritmos sí requieren un conjunto de datos de entrenamiento con etiquetas de cluster predefinidas.
    • A partir del conjunto de entrenamiento, aprenden a agrupar nuevos datos en clusters similares.
    • Algunos ejemplos son:
      • K-nearest neighbors (KNN): Clasifica los datos en función de sus vecinos más cercanos en el espacio de características.
      • Redes neuronales convolucionales (CNN): Agrupan imágenes en función de características visuales.

    ¿Cuándo es necesario entrenar un modelo?

    • Si tiene un conjunto de datos con etiquetas de cluster predefinidas, puede utilizar un algoritmo supervisado para obtener una mayor precisión en la clusterización.
    • Si no tiene etiquetas de cluster predefinidas, o si desea explorar diferentes tipos de clusters, puede utilizar un algoritmo no supervisado.

    En resumen:

    • La necesidad de entrenar un modelo depende del tipo de algoritmo de clusterización que se utilice y de la disponibilidad de un conjunto de datos de entrenamiento con etiquetas predefinidas.
    • Los algoritmos no supervisados son una buena opción cuando no se tiene un conjunto de datos de entrenamiento con etiquetas predefinidas.
    • Los algoritmos supervisados pueden ofrecer una mayor precisión, pero requieren un conjunto de datos de entrenamiento con etiquetas predefinidas.
    sebastián Giraldo Vargas

    sebastián Giraldo Vargas

    student•
    hace 3 años

    Hice el ensayo de hacer el Kmeans con el dataset iris y me surgió la duda:

    El clustering siempre se mostrará en un scatterplot, o podemos hacerlo en diferentes graficas?

    O mas bién mi pregunta es, siempre para hacer un clustering devemos de elegir dos features??

    descarga.png
      Alarcon7a

      Alarcon7a

      student•
      hace 3 años

      Es solo para buscar una manera fácil de graficar

      EDUARDO FLORES

      EDUARDO FLORES

      student•
      hace 2 años

      K-mean no solo se realiza para dos features, puedes tener muchas más, entonces si por ejemplo e el caso de iris dataset tiene 4 features y quiere verlo en 2 dimensiones lo puede realizar a través de la técnica principal component analysis (PCA) ya que no podriamos ver un cluster en 4 dimensiones.

    Juan José Mamani Tarqui

    Juan José Mamani Tarqui

    student•
    hace 2 años

    <u>Es necesario estandarizar en Kmeans?</u>

    🚀

    No es obligatorio estandarizar en Kmeans, pero se recomienda en la mayoría de los casos. La estandarización, también llamada normalización, consiste en transformar las variables para que tengan una media de 0 y una desviación estándar de 1. Esto tiene varias ventajas:

    Mejora la precisión de Kmeans:

    • Kmeans se basa en la distancia entre los puntos de datos y los centroides de los clusters.
    • Si las variables tienen diferentes escalas, la distancia no se calculará de forma precisa.
    • La estandarización asegura que todas las variables tengan la misma importancia en el cálculo de la distancia.

    Acelera la convergencia de Kmeans:

    • Kmeans es un algoritmo iterativo que busca encontrar la mejor asignación de puntos a clusters.
    • La estandarización puede ayudar a que el algoritmo converja más rápido, ya que las variables estarán en la misma escala.

    Facilita la interpretación de los resultados:

    • Si las variables no están estandarizadas, puede ser difícil interpretar los centroides de los clusters.
    • La estandarización permite comparar los centroides de forma más sencilla.

    En resumen:

    • La estandarización no es obligatoria en Kmeans, pero se recomienda para mejorar la precisión, la velocidad de convergencia y la interpretabilidad de los resultados.

    Excepciones:

    • En algunos casos, la estandarización puede no ser necesaria o incluso puede ser perjudicial.
    • Por ejemplo, si las variables ya tienen una distribución normal, la estandarización puede no tener un impacto significativo.
    • Si las variables son categóricas, la estandarización no es aplicable.

    En caso de duda, es recomendable estandarizar las variables antes de aplicar Kmeans.

    Alfonso Andres Zapata Guzman

    Alfonso Andres Zapata Guzman

    student•
    hace 3 años

    Alternativa al codigo de visualizacion usado.

    fig1 = go.Figure() fig1.add_traces(data= go.Scatter(x=df_blobs["x1"], y=df_blobs["x2"], marker=dict( size=10, color=df_blobs['cluster'], colorscale=px.colors.diverging.RdBu[::-1] ), mode='markers', name='Data') ) fig1.add_traces(data= go.Scatter(x=df_centers["x1"], y=df_centers["x2"], mode='markers', name='Centers', marker=dict(color='#ff6602', size=20, symbol="x-dot")) ) fig1.add_traces(data= go.Scatter(x=df_k_means_center["x1"], y=df_k_means_center["x2"], mode='markers', name='k_means_centers', marker=dict(color='yellow', size=20, symbol="circle-x")) ) fig1.update_layout(showlegend=True) fig1.show()
      Juan R. Vergara M.

      Juan R. Vergara M.

      student•
      hace 3 años

      👍

      Alfonso Andres Zapata Guzman

      Alfonso Andres Zapata Guzman

      student•
      hace 2 años

      ~ Que tal Platzinauta, ya conectamos en LinkedIn? ~

      ¡Que estas esperando! Conectemos en LinkedIn, GitHub, Medium o Redes sociales

    Juan Acevedo

    Juan Acevedo

    student•
    hace 3 meses
    Mario Alexander Vargas Celis

    Mario Alexander Vargas Celis

    student•
    hace 4 meses

    A continuación te muestro un ejemplo paso a paso de cómo implementar K-means en Python usando scikit-learn.

    ✅ Paso 1: Importar librerías necesarias

    import numpy as np import matplotlib.pyplot as plt from sklearn.cluster import KMeans from sklearn.datasets import make_blobs

    ✅ Paso 2: Generar datos de ejemplo

    # Creamos un conjunto de datos sintético con 3 clusters X, y = make_blobs(n_samples=300, centers=3, cluster_std=0.60, random_state=0)

    # Visualizamos los datos plt.scatter(X[:, 0], X[:, 1], s=50) plt.title("Datos sin clasificar") plt.show()

    ✅ Paso 3: Aplicar K-means

    # Creamos y ajustamos el modelo kmeans = KMeans(n_clusters=3, random_state=0) kmeans.fit(X)

    # Obtenemos las predicciones (a qué grupo pertenece cada punto) y_kmeans = kmeans.predict(X)

    # Centros de los clusters centros = kmeans.cluster_centers_

    ✅ Paso 4: Visualizar los resultados

    # Graficamos los datos clasificados por cluster plt.scatter(X[:, 0], X[:, 1], c=y_kmeans, s=50, cmap='viridis')

    # Mostramos los centros de cada cluster plt.scatter(centros[:, 0], centros[:, 1], c='red', s=200, alpha=0.75, marker='X') plt.title("Resultados del clustering con K-means") plt.show()

    ✅ Paso 5 (Opcional): Evaluar el número óptimo de clusters (método del codo)

    inertia = []

    for k in range(1, 10): kmeans = KMeans(n_clusters=k, random_state=0) kmeans.fit(X) inertia.append(kmeans.inertia_)

    plt.plot(range(1, 10), inertia, marker='o') plt.xlabel('Número de clusters') plt.ylabel('Inercia') plt.title('Método del Codo') plt.show()

    Juan José Mamani Tarqui

    Juan José Mamani Tarqui

    student•
    hace 2 años

    Para encontrar el k adecuado se implementa the <u>Elbow Method</u>

    Julián Cárdenas

    Julián Cárdenas

    student•
    hace 2 años

    El código:

    sns.scatterplot (data= df_blobs, x= "X1", y= "X2") sns.scatterplot (data= df_centers, x= "X1", y= "X2", marker= "X", s= 100) plt.show()

    Aplicar KMeans:

    kmeans = KMeans (n_clusters = 4) df_cluster = kmeans.fit_predict(X) df_blobs['cluster'] = df_cluster k_means_centers = kmeans.cluster_centers_ df_k_means_center = pd.DataFrame ({ 'X1': k_means_centers [:,0], 'X2': k_means_centers [:,1], })
    fig = plt.figure(figsize=(9,9)) sns.scatterplot(data=df_blobs, x='X1', y='X2', hue= 'cluster', palette='coolwarm') sns.scatterplot(data=df_centers, x='X1', y='X2', marker='X', s=150 , color='red') sns.scatterplot(data=df_k_means_center, x='X1', y='X2', marker='o', s=150 , color='yellow') plt.show()

Escuelas

  • Desarrollo Web
    • Fundamentos del Desarrollo Web Profesional
    • Diseño y Desarrollo Frontend
    • Desarrollo Frontend con JavaScript
    • Desarrollo Frontend con Vue.js
    • Desarrollo Frontend con Angular
    • Desarrollo Frontend con React.js
    • Desarrollo Backend con Node.js
    • Desarrollo Backend con Python
    • Desarrollo Backend con Java
    • Desarrollo Backend con PHP
    • Desarrollo Backend con Ruby
    • Bases de Datos para Web
    • Seguridad Web & API
    • Testing Automatizado y QA para Web
    • Arquitecturas Web Modernas y Escalabilidad
    • DevOps y Cloud para Desarrolladores Web
  • English Academy
    • Inglés Básico A1
    • Inglés Básico A2
    • Inglés Intermedio B1
    • Inglés Intermedio Alto B2
    • Inglés Avanzado C1
    • Inglés para Propósitos Específicos
    • Inglés de Negocios
  • Marketing Digital
    • Fundamentos de Marketing Digital
    • Marketing de Contenidos y Redacción Persuasiva
    • SEO y Posicionamiento Web
    • Social Media Marketing y Community Management
    • Publicidad Digital y Paid Media
    • Analítica Digital y Optimización (CRO)
    • Estrategia de Marketing y Growth
    • Marketing de Marca y Comunicación Estratégica
    • Marketing para E-commerce
    • Marketing B2B
    • Inteligencia Artificial Aplicada al Marketing
    • Automatización del Marketing
    • Marca Personal y Marketing Freelance
    • Ventas y Experiencia del Cliente
    • Creación de Contenido para Redes Sociales
  • Inteligencia Artificial y Data Science
    • Fundamentos de Data Science y AI
    • Análisis y Visualización de Datos
    • Machine Learning y Deep Learning
    • Data Engineer
    • Inteligencia Artificial para la Productividad
    • Desarrollo de Aplicaciones con IA
    • AI Software Engineer
  • Ciberseguridad
    • Fundamentos de Ciberseguridad
    • Hacking Ético y Pentesting (Red Team)
    • Análisis de Malware e Ingeniería Forense
    • Seguridad Defensiva y Cumplimiento (Blue Team)
    • Ciberseguridad Estratégica
  • Liderazgo y Habilidades Blandas
    • Fundamentos de Habilidades Profesionales
    • Liderazgo y Gestión de Equipos
    • Comunicación Avanzada y Oratoria
    • Negociación y Resolución de Conflictos
    • Inteligencia Emocional y Autogestión
    • Productividad y Herramientas Digitales
    • Gestión de Proyectos y Metodologías Ágiles
    • Desarrollo de Carrera y Marca Personal
    • Diversidad, Inclusión y Entorno Laboral Saludable
    • Filosofía y Estrategia para Líderes
  • Diseño de Producto y UX
    • Fundamentos de Diseño UX/UI
    • Investigación de Usuarios (UX Research)
    • Arquitectura de Información y Usabilidad
    • Diseño de Interfaces y Prototipado (UI Design)
    • Sistemas de Diseño y DesignOps
    • Redacción UX (UX Writing)
    • Creatividad e Innovación en Diseño
    • Diseño Accesible e Inclusivo
    • Diseño Asistido por Inteligencia Artificial
    • Gestión de Producto y Liderazgo en Diseño
    • Diseño de Interacciones Emergentes (VUI/VR)
    • Desarrollo Web para Diseñadores
    • Diseño y Prototipado No-Code
  • Contenido Audiovisual
    • Fundamentos de Producción Audiovisual
    • Producción de Video para Plataformas Digitales
    • Producción de Audio y Podcast
    • Fotografía y Diseño Gráfico para Contenido Digital
    • Motion Graphics y Animación
    • Contenido Interactivo y Realidad Aumentada
    • Estrategia, Marketing y Monetización de Contenidos
  • Desarrollo Móvil
    • Fundamentos de Desarrollo Móvil
    • Desarrollo Nativo Android con Kotlin
    • Desarrollo Nativo iOS con Swift
    • Desarrollo Multiplataforma con React Native
    • Desarrollo Multiplataforma con Flutter
    • Arquitectura y Patrones de Diseño Móvil
    • Integración de APIs y Persistencia Móvil
    • Testing y Despliegue en Móvil
    • Diseño UX/UI para Móviles
  • Diseño Gráfico y Arte Digital
    • Fundamentos del Diseño Gráfico y Digital
    • Diseño de Identidad Visual y Branding
    • Ilustración Digital y Arte Conceptual
    • Diseño Editorial y de Empaques
    • Motion Graphics y Animación 3D
    • Diseño Gráfico Asistido por Inteligencia Artificial
    • Creatividad e Innovación en Diseño
  • Programación
    • Fundamentos de Programación e Ingeniería de Software
    • Herramientas de IA para el trabajo
    • Matemáticas para Programación
    • Programación con Python
    • Programación con JavaScript
    • Programación con TypeScript
    • Programación Orientada a Objetos con Java
    • Desarrollo con C# y .NET
    • Programación con PHP
    • Programación con Go y Rust
    • Programación Móvil con Swift y Kotlin
    • Programación con C y C++
    • Administración Básica de Servidores Linux
  • Negocios
    • Fundamentos de Negocios y Emprendimiento
    • Estrategia y Crecimiento Empresarial
    • Finanzas Personales y Corporativas
    • Inversión en Mercados Financieros
    • Ventas, CRM y Experiencia del Cliente
    • Operaciones, Logística y E-commerce
    • Gestión de Proyectos y Metodologías Ágiles
    • Aspectos Legales y Cumplimiento
    • Habilidades Directivas y Crecimiento Profesional
    • Diversidad e Inclusión en el Entorno Laboral
    • Herramientas Digitales y Automatización para Negocios
  • Blockchain y Web3
    • Fundamentos de Blockchain y Web3
    • Desarrollo de Smart Contracts y dApps
    • Finanzas Descentralizadas (DeFi)
    • NFTs y Economía de Creadores
    • Seguridad Blockchain
    • Ecosistemas Blockchain Alternativos (No-EVM)
    • Producto, Marketing y Legal en Web3
  • Recursos Humanos
    • Fundamentos y Cultura Organizacional en RRHH
    • Atracción y Selección de Talento
    • Cultura y Employee Experience
    • Gestión y Desarrollo de Talento
    • Desarrollo y Evaluación de Liderazgo
    • Diversidad, Equidad e Inclusión
    • AI y Automatización en Recursos Humanos
    • Tecnología y Automatización en RRHH
  • Finanzas e Inversiones
    • Fundamentos de Finanzas Personales y Corporativas
    • Análisis y Valoración Financiera
    • Inversión y Mercados de Capitales
    • Finanzas Descentralizadas (DeFi) y Criptoactivos
    • Finanzas y Estrategia para Startups
    • Inteligencia Artificial Aplicada a Finanzas
    • Domina Excel
    • Financial Analyst
    • Conseguir trabajo en Finanzas e Inversiones
  • Startups
    • Fundamentos y Validación de Ideas
    • Estrategia de Negocio y Product-Market Fit
    • Desarrollo de Producto y Operaciones Lean
    • Finanzas, Legal y Fundraising
    • Marketing, Ventas y Growth para Startups
    • Cultura, Talento y Liderazgo
    • Finanzas y Operaciones en Ecommerce
    • Startups Web3 y Blockchain
    • Startups con Impacto Social
    • Expansión y Ecosistema Startup
  • Cloud Computing y DevOps
    • Fundamentos de Cloud y DevOps
    • Administración de Servidores Linux
    • Contenerización y Orquestación
    • Infraestructura como Código (IaC) y CI/CD
    • Amazon Web Services
    • Microsoft Azure
    • Serverless y Observabilidad
    • Certificaciones Cloud (Preparación)
    • Plataforma Cloud GCP

Platzi y comunidad

  • Platzi Business
  • Live Classes
  • Lanzamientos
  • Executive Program
  • Trabaja con nosotros
  • Podcast

Recursos

  • Manual de Marca

Soporte

  • Preguntas Frecuentes
  • Contáctanos

Legal

  • Términos y Condiciones
  • Privacidad
  • Tyc promociones
Reconocimientos
Reconocimientos
Logo reconocimientoTop 40 Mejores EdTech del mundo · 2024
Logo reconocimientoPrimera Startup Latina admitida en YC · 2014
Logo reconocimientoPrimera Startup EdTech · 2018
Logo reconocimientoCEO Ganador Medalla por la Educación T4 & HP · 2024
Logo reconocimientoCEO Mejor Emprendedor del año · 2024
De LATAM conpara el mundo
YoutubeInstagramLinkedInTikTokFacebookX (Twitter)Threads