CursosEmpresasBlogLiveConfPrecios

Evaluando métricas de desempeño

Clase 15 de 22 • Curso de Redes Neuronales en Keras y Scikit-Learn 2019

Contenido del curso

Apropiar conceptos fundamentales de las redes neuronales

  • 1
    ¿Qué es una red neuronal?

    ¿Qué es una red neuronal?

    05:35 min

Identificar los principales Frameworks usados en la industria para el desarrollo de Deep Learning

  • 2
    Frameworks de Deep Learning

    Frameworks de Deep Learning

    04:56 min

Comprender los modelos de representación de las redes neuronales artificiales usados en Deep Learning

  • 3
    Estructura de redes neuronales

    Estructura de redes neuronales

    14:26 min
  • 4
    Creando nuestra primer red neuronal

    Creando nuestra primer red neuronal

    11:06 min
  • 5
    Entrenando nuestra primera red neuronal

    Entrenando nuestra primera red neuronal

    06:08 min
  • 6
    Visualizando el proceso de entrenamiento

    Visualizando el proceso de entrenamiento

    05:19 min
  • 7
    Funciones de activación

    Funciones de activación

    04:51 min
  • 8
    Funciones de costo o pérdidas

    Funciones de costo o pérdidas

    07:16 min
  • 9
    Inicialización y Entrenamiento de RN

    Inicialización y Entrenamiento de RN

    07:53 min
  • 10
    Optimizadores en redes neuronales

    Optimizadores en redes neuronales

    05:43 min
  • 11
    Clasificación Binaria

    Clasificación Binaria

    09:43 min
  • 12
    Clasificación de potenciales clientes

    Clasificación de potenciales clientes

    08:46 min
  • 13
    Análisis de resultados

    Análisis de resultados

    14:04 min
  • 14
    Métricas de desempeño: regresión y clasificación

    Métricas de desempeño: regresión y clasificación

    09:26 min
  • 15
    Evaluando métricas de desempeño

    Evaluando métricas de desempeño

    Viendo ahora
  • 16
    Ajuste de redes neuronales: overfitting y regularización

    Ajuste de redes neuronales: overfitting y regularización

    02:38 min
  • 17
    Regularización

    Regularización

    05:52 min
  • 18
    Ajuste de redes neuronales: Hiper parámetros

    Ajuste de redes neuronales: Hiper parámetros

    08:36 min

Crear un modelo de regresión a partir de un caso de uso real

  • 19
    Introducción a las regresiones con Deep Learning: Planteamiento del problema

    Introducción a las regresiones con Deep Learning: Planteamiento del problema

    04:40 min
  • 20
    Solución del problema de regresión

    Solución del problema de regresión

    08:36 min
  • 21
    Ajustes finales al proyecto

    Ajustes finales al proyecto

    04:40 min

Cierre del curso

  • 22
    Cierre del curso

    Cierre del curso

    09:14 min
Tomar examen

Escuelas

  • Desarrollo Web
    • Fundamentos del Desarrollo Web Profesional
    • Diseño y Desarrollo Frontend
    • Desarrollo Frontend con JavaScript
    • Desarrollo Frontend con Vue.js
    • Desarrollo Frontend con Angular
    • Desarrollo Frontend con React.js
    • Desarrollo Backend con Node.js
    • Desarrollo Backend con Python
    • Desarrollo Backend con Java
    • Desarrollo Backend con PHP
    • Desarrollo Backend con Ruby
    • Bases de Datos para Web
    • Seguridad Web & API
    • Testing Automatizado y QA para Web
    • Arquitecturas Web Modernas y Escalabilidad
    • DevOps y Cloud para Desarrolladores Web
  • English Academy
    • Inglés Básico A1
    • Inglés Básico A2
    • Inglés Intermedio B1
    • Inglés Intermedio Alto B2
    • Inglés Avanzado C1
    • Inglés para Propósitos Específicos
    • Inglés de Negocios
  • Marketing Digital
    • Fundamentos de Marketing Digital
    • Marketing de Contenidos y Redacción Persuasiva
    • SEO y Posicionamiento Web
    • Social Media Marketing y Community Management
    • Publicidad Digital y Paid Media
    • Analítica Digital y Optimización (CRO)
    • Estrategia de Marketing y Growth
    • Marketing de Marca y Comunicación Estratégica
    • Marketing para E-commerce
    • Marketing B2B
    • Inteligencia Artificial Aplicada al Marketing
    • Automatización del Marketing
    • Marca Personal y Marketing Freelance
    • Ventas y Experiencia del Cliente
    • Creación de Contenido para Redes Sociales
  • Inteligencia Artificial y Data Science
    • Fundamentos de Data Science y AI
    • Análisis y Visualización de Datos
    • Machine Learning y Deep Learning
    • Data Engineer
    • Inteligencia Artificial para la Productividad
    • Desarrollo de Aplicaciones con IA
    • AI Software Engineer
  • Ciberseguridad
    • Fundamentos de Ciberseguridad
    • Hacking Ético y Pentesting (Red Team)
    • Análisis de Malware e Ingeniería Forense
    • Seguridad Defensiva y Cumplimiento (Blue Team)
    • Ciberseguridad Estratégica
  • Liderazgo y Habilidades Blandas
    • Fundamentos de Habilidades Profesionales
    • Liderazgo y Gestión de Equipos
    • Comunicación Avanzada y Oratoria
    • Negociación y Resolución de Conflictos
    • Inteligencia Emocional y Autogestión
    • Productividad y Herramientas Digitales
    • Gestión de Proyectos y Metodologías Ágiles
    • Desarrollo de Carrera y Marca Personal
    • Diversidad, Inclusión y Entorno Laboral Saludable
    • Filosofía y Estrategia para Líderes
  • Diseño de Producto y UX
    • Fundamentos de Diseño UX/UI
    • Investigación de Usuarios (UX Research)
    • Arquitectura de Información y Usabilidad
    • Diseño de Interfaces y Prototipado (UI Design)
    • Sistemas de Diseño y DesignOps
    • Redacción UX (UX Writing)
    • Creatividad e Innovación en Diseño
    • Diseño Accesible e Inclusivo
    • Diseño Asistido por Inteligencia Artificial
    • Gestión de Producto y Liderazgo en Diseño
    • Diseño de Interacciones Emergentes (VUI/VR)
    • Desarrollo Web para Diseñadores
    • Diseño y Prototipado No-Code
  • Contenido Audiovisual
    • Fundamentos de Producción Audiovisual
    • Producción de Video para Plataformas Digitales
    • Producción de Audio y Podcast
    • Fotografía y Diseño Gráfico para Contenido Digital
    • Motion Graphics y Animación
    • Contenido Interactivo y Realidad Aumentada
    • Estrategia, Marketing y Monetización de Contenidos
  • Desarrollo Móvil
    • Fundamentos de Desarrollo Móvil
    • Desarrollo Nativo Android con Kotlin
    • Desarrollo Nativo iOS con Swift
    • Desarrollo Multiplataforma con React Native
    • Desarrollo Multiplataforma con Flutter
    • Arquitectura y Patrones de Diseño Móvil
    • Integración de APIs y Persistencia Móvil
    • Testing y Despliegue en Móvil
    • Diseño UX/UI para Móviles
  • Diseño Gráfico y Arte Digital
    • Fundamentos del Diseño Gráfico y Digital
    • Diseño de Identidad Visual y Branding
    • Ilustración Digital y Arte Conceptual
    • Diseño Editorial y de Empaques
    • Motion Graphics y Animación 3D
    • Diseño Gráfico Asistido por Inteligencia Artificial
    • Creatividad e Innovación en Diseño
  • Programación
    • Fundamentos de Programación e Ingeniería de Software
    • Herramientas de IA para el trabajo
    • Matemáticas para Programación
    • Programación con Python
    • Programación con JavaScript
    • Programación con TypeScript
    • Programación Orientada a Objetos con Java
    • Desarrollo con C# y .NET
    • Programación con PHP
    • Programación con Go y Rust
    • Programación Móvil con Swift y Kotlin
    • Programación con C y C++
    • Administración Básica de Servidores Linux
  • Negocios
    • Fundamentos de Negocios y Emprendimiento
    • Estrategia y Crecimiento Empresarial
    • Finanzas Personales y Corporativas
    • Inversión en Mercados Financieros
    • Ventas, CRM y Experiencia del Cliente
    • Operaciones, Logística y E-commerce
    • Gestión de Proyectos y Metodologías Ágiles
    • Aspectos Legales y Cumplimiento
    • Habilidades Directivas y Crecimiento Profesional
    • Diversidad e Inclusión en el Entorno Laboral
    • Herramientas Digitales y Automatización para Negocios
  • Blockchain y Web3
    • Fundamentos de Blockchain y Web3
    • Desarrollo de Smart Contracts y dApps
    • Finanzas Descentralizadas (DeFi)
    • NFTs y Economía de Creadores
    • Seguridad Blockchain
    • Ecosistemas Blockchain Alternativos (No-EVM)
    • Producto, Marketing y Legal en Web3
  • Recursos Humanos
    • Fundamentos y Cultura Organizacional en RRHH
    • Atracción y Selección de Talento
    • Cultura y Employee Experience
    • Gestión y Desarrollo de Talento
    • Desarrollo y Evaluación de Liderazgo
    • Diversidad, Equidad e Inclusión
    • AI y Automatización en Recursos Humanos
    • Tecnología y Automatización en RRHH
  • Finanzas e Inversiones
    • Fundamentos de Finanzas Personales y Corporativas
    • Análisis y Valoración Financiera
    • Inversión y Mercados de Capitales
    • Finanzas Descentralizadas (DeFi) y Criptoactivos
    • Finanzas y Estrategia para Startups
    • Inteligencia Artificial Aplicada a Finanzas
    • Domina Excel
    • Financial Analyst
    • Conseguir trabajo en Finanzas e Inversiones
  • Startups
    • Fundamentos y Validación de Ideas
    • Estrategia de Negocio y Product-Market Fit
    • Desarrollo de Producto y Operaciones Lean
    • Finanzas, Legal y Fundraising
    • Marketing, Ventas y Growth para Startups
    • Cultura, Talento y Liderazgo
    • Finanzas y Operaciones en Ecommerce
    • Startups Web3 y Blockchain
    • Startups con Impacto Social
    • Expansión y Ecosistema Startup
  • Cloud Computing y DevOps
    • Fundamentos de Cloud y DevOps
    • Administración de Servidores Linux
    • Contenerización y Orquestación
    • Infraestructura como Código (IaC) y CI/CD
    • Amazon Web Services
    • Microsoft Azure
    • Serverless y Observabilidad
    • Certificaciones Cloud (Preparación)
    • Plataforma Cloud GCP

Platzi y comunidad

  • Platzi Business
  • Live Classes
  • Lanzamientos
  • Executive Program
  • Trabaja con nosotros
  • Podcast

Recursos

  • Manual de Marca

Soporte

  • Preguntas Frecuentes
  • Contáctanos

Legal

  • Términos y Condiciones
  • Privacidad
  • Tyc promociones
Reconocimientos
Reconocimientos
Logo reconocimientoTop 40 Mejores EdTech del mundo · 2024
Logo reconocimientoPrimera Startup Latina admitida en YC · 2014
Logo reconocimientoPrimera Startup EdTech · 2018
Logo reconocimientoCEO Ganador Medalla por la Educación T4 & HP · 2024
Logo reconocimientoCEO Mejor Emprendedor del año · 2024
De LATAM conpara el mundo
YoutubeInstagramLinkedInTikTokFacebookX (Twitter)Threads
        Xavier Medina Veintimilla

        Xavier Medina Veintimilla

        student•
        hace 6 años

        Like si se te reinició Google Colab porque agotaste toda la RAM disponible.

          rusbel bermúdez rivera

          rusbel bermúdez rivera

          student•
          hace 5 años

          Hay que guardar el notebook del profesor, anteriormente Collab te daba mas ram cuando te la terminabas primero 32gb, luego 25gb, ahora hay que pagar la suscripción (hay_tabla.png), pero si tienes un notebook antiguo con alguna de esas asignaciones de ram (como el de la clase, no debería haber ningún problema)

        María José Medina

        María José Medina

        student•
        hace 5 años

        Para prevenir el reinicio del colab por falta de RAM lo que hice fue exportar el dataframe y agregarlo a un nuevo notebook.

        Dejo el código por si a alguien más le interesa

        #preparacion del df con las variables consolidadas mi_consolidado = consolidado.copy(deep=True) def OneHotEncoding_df(df, columna): OHE_df = pd.get_dummies(columna+'_'+df[columna]) return OHE_df objects_list = list(types[types.values == 'object'].index) #Se realiza OHE para cada categoría for category in objects_list: mask = OneHotEncoding_df(mi_consolidado, category) print(f'column {category} transformed!') mi_consolidado.drop(category, axis=1, inplace=True) mi_consolidado = pd.concat([mi_consolidado, mask], axis=1) # exportar modelo mi_consolidado.to_pickle('variables_consolidadas.pkl')

        En el nuevo notebook hice la división de datos de entrenamiento y prueba de esta manera:

        variables_consolidadas = pd.read_pickle('variables_consolidadas.pkl') objetivo = variables_consolidadas['outcome'] variables_consolidadas.drop('outcome', axis=1, inplace=True)

        ya despues de aqui todo es igual al notebook de la clase.

        from sklearn.model_selection import train_test_split # Entrenamiento y prueba con relación 80:20 x_train, x_test, y_train, y_test = train_test_split(variables_consolidadas,objetivo, test_size=0.2,random_state=2020) # Entrenamiento y validación con relación 90:10 x_train, x_val, y_train, y_val = train_test_split(x_train,y_train, test_size=0.1, random_state=2020) print("Shape of x_train:",x_train.shape) print("Shape of x_test:",x_test.shape) print("Shape of x_val:",x_val.shape) print("Shape of y_train:",y_train.shape) print("Shape of y_test:",y_test.shape) print("Shape of y_val:",y_val.shape)

        `

        Diego Fernando Charfuelan Burbano

        Diego Fernando Charfuelan Burbano

        student•
        hace 5 años

        La columna people_id no debería ser considerada en el entrenamiento o aprendizaje de la red neuronal. No aporta información para generalizar a los clientes

          Andrés Lancheros

          Andrés Lancheros

          student•
          hace 5 años

          Hola Diego, creo que si debería incluirse la variable people_id ya que varias actividades pertenecen a una persona y este conjunto de datos determina el comportamiento de cada persona.

        Rodrigo Urquizo Yepez

        Rodrigo Urquizo Yepez

        student•
        hace 6 años

        En vez de hacer model.add() tambien se puede hacer: model = Sequential([Capa 1, Capa 2, etc])

        Alberto Perdomo

        Alberto Perdomo

        student•
        hace 6 años

        Porqué se elige 256 neuronas de entrada y no 177? Este tipo de aproximación lo he visto en otras arquitecturas fully conected, pero no me queda claro la razón.

          Gersonrpq

          Gersonrpq

          student•
          hace 6 años

          Hola Perdomo!

          Es porque en la capa de entrada, se ajustan las neuronas a la potencia de dos mas cercana. Por ejemplo 2^7 = 128 (queda por debajo de 177) 2^8 = 256 (queda por arriba de 177 por lo que es perfecto)

          Alberto Perdomo

          Alberto Perdomo

          student•
          hace 6 años

          Gracias por la explicación

        rusbel bermúdez rivera

        rusbel bermúdez rivera

        student•
        hace 5 años

        En mi caso para graficar tuve que guardar el entrenamiento del modelo como una variable, dejo las ultimas partes de mi notebook

        # Volvemosa utilizar el modelo anterior sustituyendo los dataframes model = Sequential() model.add(Dense(512,input_dim = x_train_scaled.shape[1],activation="relu")) model.add(Dense(512,activation="relu")) model.add(Dense(256,activation="relu")) model.add(Dense(1,activation = "sigmoid")) model.compile(optimizer = "Adam",loss="binary_crossentropy",metrics=["accuracy"]) #guardar modelo en una variable para acceder al diccionario de valores history = model.fit(x_train_scaled,y_train, validation_data = (x_val_scaled,y_val),epochs=12, batch_size=128)

        Grafica

        import matplotlib.pyplot as plt %matplotlib inline plt.figure(figsize=(13,6)) plt.plot(history.history['loss']) plt.plot(history.history['val_loss']) plt.title("Pérdidas del modelo con set de entrenamiento y pruebas por época") plt.ylabel('Pérdidas') plt.xlabel('Épocas') plt.legend(['Entrenamiento', 'Validación'], loc='upper right') plt.show()

        ![](

        descarga.png

        import matplotlib.pyplot as plt %matplotlib inline plt.figure(figsize=(13,6)) plt.plot(history.history['loss']) plt.plot(history.history['val_loss']) plt.title("Pérdidas del modelo con set de entrenamiento y pruebas por época") plt.ylabel('Pérdidas') plt.xlabel('Épocas') plt.legend(['Entrenamiento', 'Validación'], loc='upper right') plt.show()

        ![](

        descarga (1).png

          jose zuñiga

          jose zuñiga

          student•
          hace 5 años

          Gracias por tu aporte, me sirvió. Solo una apreciación, la segunda grafica corresponde al accuracy, no a la función de perdida, hay que cambiar un par de líneas de código.

          plt.plot(history.history['acc']) plt.plot(history.history['val_acc'])```
          rusbel bermúdez rivera

          rusbel bermúdez rivera

          student•
          hace 5 años

          mea culpa, gracias por la observacion @jzuniga123 me equivoque al pegar por cierto para encontrar las llaves loss y val_loss tuve que usar la opcion dir(history) donde history es la variable que guarda la informacion, segun veo en ejemplos de versiones anteriores de sklearn no era necesario guardarlo para acceder a esos valores, deje las notas del curso al principio de cada modulo y el repo tambien tiene los notebooks

        Jorge Sebastian Alvarez Herrera

        Jorge Sebastian Alvarez Herrera

        student•
        hace 6 años

        Se repite el vídeo .-.

          Gabriel De Andrade

          Gabriel De Andrade

          student•
          hace 6 años

          Hola! Ya la clase está con el contenido correcto, muchas gracias por el reporte :D

        Pablo Antonio González Robles

        Pablo Antonio González Robles

        student•
        hace 6 años

        Falta el vídeo de este tema. Se repite. Parece que sólo el departamento de ventas trabaja en esta empresa

          Gabriel De Andrade

          Gabriel De Andrade

          student•
          hace 6 años

          Hola! Ya la clase está con el contenido correcto, muchas gracias por el reporte :D

          Kevin Naranjo

          Kevin Naranjo

          student•
          hace 6 años

          te sientes robado?

        FELIX  DAVID CORDOVA GARCIA

        FELIX DAVID CORDOVA GARCIA

        student•
        hace 3 años

        Antes de simplemente escribir la red nuronal se debio de hacer un feature_selection con:

        datafame_total.corr()[“outcome”].abs().sort_values()

        con esto se encuentra las correlaciones que existen entre los distintos features ( mientras mas cerca a 0 menos influyen y se deben de descartar) ,aqui se observa que almenos 10 features de estan en vano y se deben eliminar para aligerar el modelo

        Nicolás Rosero Eraso

        Nicolás Rosero Eraso

        student•
        hace 5 años

        Justo antes de terminar la primera epoch me salta este error: ValueError: Data cardinality is ambiguous: x sizes: 439459 y sizes: 175784 Make sure all arrays contain the same number of samples. El tamaño de los conjuntos y la arquitectura son iguales a los del video, no se como solucionarlo.

        Marcelo Sánchez

        Marcelo Sánchez

        student•
        hace 5 años

        En mi caso usé la potencia de mi PC y no la Colab, debo decir que me tardo como 2 hs en completar todo los modelos :)

        Rodrigo Urquizo Yepez

        Rodrigo Urquizo Yepez

        student•
        hace 6 años

        Recordemos que binary cross entropy o log function es la misma funcion de perdida que se usa para la regresion logistica, ya que nuestra ultima neurona(output) usa la funcion sigmoide como funcion de activacion.

        Nicolás Rosero Eraso

        Nicolás Rosero Eraso

        student•
        hace 5 años

        Cuando se completa la primera epoca me bota el siguiente error: ValueError: Data cardinality is ambiguous: x sizes: 439459 y sizes: 175784 Make sure all arrays contain the same number of samples. El tamaño de los conjuntos es el siguiente: x_train: (1582048, 177) y_train: (1582048,) x_test: (439459, 177) y_test: (439459,) x_val: (1582048, 177) y_val: (1582048,)

        Alguien sabe como solucionarlo?

        JAVIER SANTIAGO SALGADO

        JAVIER SANTIAGO SALGADO

        student•
        hace 5 años

        Me demore por el computo tres horas en este video jajajaja