No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Convierte tus certificados en títulos universitarios en USA

Antes: $249

Currency
$209

Paga en 4 cuotas sin intereses

Paga en 4 cuotas sin intereses
Suscríbete

Termina en:

18 Días
16 Hrs
20 Min
49 Seg

¿Qué sigue por aprender de redes neuronales?

28/29
Recursos

Aportes 35

Preguntas 3

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

CNN (convolutional neural network)

NLP (Natural language processing)

Hyper parameters tuning

Tensorboards

Gans (generative adversarial networks)

LSTM (Long short-term memory)

Muy buen curso. Me gustó que entendí bien la parte teórica.

muy buen curso , gracias a programar la red neuronal desde cero, me quedó claro los fundamentos teóricos y matemáticos de la redes neuronales, Me encantó , muchas gracias!!

De los mejores cursos, la primera vez que aprendo hacer una red neuronal desde cero, y entender lo que hacen las librerías. Me gusto mucho que no editaran la parte de los errores y que lo resolvieran en la clase.

Me gusto el curso, fortalecio mis conocimientos, y entendi mas sobres las redes neuronales.

Muy inconforme con el curso. Aplaudo el entusiasmo del profesor, pero la capacidad explicativa es una habilidad que no se vió a lo largo del curso, especialmente a la hora de explicar el código. Se explicó el código casi como un dictado pero no se abordaron en suficiente profundidad los porqués. Lo digo desde mi experiencia aprendiendo muchísimas cosas en internet. Sin embargo, es la primera vez que veo este tema y no pude entenderlo bien, siendo que conozco las herramientas de estadística y matemática que fueron usadas. Voy a reforzar con internet y voy a volver a verlo con la confianza de que el curso realmente abarcó los fundamentos.

Muy buen curso, me encantó, muchas gracias!!

Lo siento profe, de todos los cursos aqui lo estuve viendo varias veces varios de los videos, y solo logre la mitad. Son 4 temas importantes, lo dividiria en 2 cursos o 4, y aclararia mas , quiza regrese y retome este curso, por otra parte, revise internet y me aclaro mas facil los temas, pienso que era dificil entender la data, posiblemente tomar mas tiempo de explicarla, y luego explicar que se iba a intentar hacer

Profe, muchísimas gracias, se ve que le apasiona bastante el tema 😄!

Excelente curso, que buen profesor. Lo que me ensenaron en la universidad no le llega ni a un pelo al conocimiento que adquiri con este curso. Excelente 5 estrellas

Me gustó mucho el curso aquí dejo las notas que tome y el código de los notebooks
github.com/LuisReyes98/platzi-fundamentos-neural-network-keras

Agregaría a la lista:

Graph Neural Networks

Excelente curso, me siento preparando para TODO lo que viene. Gracias Carlos😃

Sencillamente excepcional. De los mejores cursos de la escuela. Cuando comprendes los conceptos básicos detrás del funcionamiento de algo todo lo demás se aclara con una nitidez única. Gracias Carlos por hacer de las redes neuronales algo fácil de entender.

Muchas gracias! Muy buen curso!

Más cursos así por favor!!

Excelente Curso. Muy bueno e interactivo!!!!

Excelente curso, explica muy bien los conceptos y brinda un horizonte antes de dar una clase

Un buen curso, buen material pero lo mejor el profesor!!
Muchas gracias por compartir tus conocimientos, asombrosa la manera de explicar y dejar los errores.

Definitivamente el curso es como a muchos nos gustaría haber aprendido desde lo básico de las redes neuronales🤙🏼.

Carlos muchas gracias por todas tus explicaciones, ya puedo ir con más confianza para aplicar lo aprendido en mis proyectos e ir a modelos más avanzados😁.

De los mejores cursos que he tenido en mi vida

Muy bien pensado, el profesor sonriente y con una explicación cuidada y novedosa de un tema.

Transmite gusto y deseo de seguir aprendiendo de este tema tan sorprendente 😄

Les recomiendo usar: \# Early stoppingearly\_stop = EarlyStopping( monitor='val\_mae', patience=15, restore\_best\_weights=True) Para evitar el sobre entrenamiento
Después de haber cubierto los conceptos fundamentales de redes neuronales, como la construcción de modelos, la optimización, el descenso del gradiente, el backpropagation y técnicas de regularización, hay varios temas más avanzados que puedes explorar para profundizar en el campo de redes neuronales y deep learning. Aquí te dejo una guía de los siguientes pasos: \### 1. \*\*Redes Neuronales Convolucionales (CNN)\*\*   - \*\*Descripción\*\*: Las CNN son redes especializadas para el procesamiento de datos con estructuras de grilla como imágenes.   - \*\*Temas\*\*:     - Convoluciones y pooling     - Arquitecturas populares: LeNet, AlexNet, VGG, ResNet, Inception     - Transfer learning (reutilización de modelos preentrenados)     - Aplicaciones: clasificación de imágenes, detección de objetos, segmentación. \### 2. \*\*Redes Neuronales Recurrentes (RNN) y LSTM\*\*   - \*\*Descripción\*\*: Las RNN son útiles para datos secuenciales, como series de tiempo o texto, mientras que las LSTM y GRU son versiones avanzadas que resuelven problemas de largo plazo en secuencias.   - \*\*Temas\*\*:     - Células recurrentes, Backpropagation Through Time (BPTT)     - LSTM (Long Short-Term Memory) y GRU (Gated Recurrent Units)     - Aplicaciones: generación de texto, análisis de series de tiempo, modelado de lenguaje natural (NLP). \### 3. \*\*Optimización y Técnicas de Entrenamiento Avanzadas\*\*   - \*\*Descripción\*\*: Técnicas que mejoran el rendimiento del entrenamiento de redes neuronales.   - \*\*Temas\*\*:     - Algoritmos de optimización avanzados: Adam, Adagrad, RMSprop     - Normalización por lotes (Batch Normalization), Dropout, Early Stopping     - Programación de tasas de aprendizaje (Learning Rate Schedulers)     - Técnicas de inicialización de pesos. \### 4. \*\*Aprendizaje por Refuerzo (Reinforcement Learning)\*\*   - \*\*Descripción\*\*: Enfoque donde un agente aprende a tomar decisiones a través de la interacción con un entorno.   - \*\*Temas\*\*:     - Diferencias entre aprendizaje supervisado y no supervisado     - Algoritmos Q-learning, Deep Q Networks (DQN)     - Aprendizaje profundo de políticas (Deep Policy Gradient Methods). \### 5. \*\*Redes Generativas (GANs y VAEs)\*\*   - \*\*Descripción\*\*: Modelos que generan datos nuevos y realistas, útiles para tareas como la generación de imágenes.   - \*\*Temas\*\*:     - Generative Adversarial Networks (GANs) y su entrenamiento adversarial     - Variational Autoencoders (VAE)     - Aplicaciones en la síntesis de imágenes, música, y más. \### 6. \*\*Atención y Transformers\*\*   - \*\*Descripción\*\*: Arquitecturas avanzadas para modelar secuencias con dependencias largas. Utilizadas principalmente en NLP.   - \*\*Temas\*\*:     - Mecanismo de atención     - Arquitectura Transformer (BERT, GPT)     - Aplicaciones: traducción automática, procesamiento del lenguaje natural. \### 7. \*\*Aprendizaje Federado y Distribuido\*\*   - \*\*Descripción\*\*: Técnicas para entrenar modelos en entornos donde los datos están distribuidos entre múltiples dispositivos o servidores.   - \*\*Temas\*\*:     - Redes neuronales distribuidas     - Aprendizaje federado para la privacidad de los datos     - Frameworks para aprendizaje distribuido como TensorFlow y PyTorch. \### 8. \*\*Explicabilidad en Modelos de Aprendizaje Profundo\*\*   - \*\*Descripción\*\*: Métodos para entender y explicar las decisiones de redes neuronales complejas.   - \*\*Temas\*\*:     - Técnicas como LIME, SHAP, Grad-CAM     - Interpretación de redes neuronales     - Aplicaciones en áreas críticas como la medicina y las finanzas. \### 9. \*\*Implementaciones en Hardware Avanzado (GPU/TPU)\*\*   - \*\*Descripción\*\*: Uso de hardware especializado para acelerar el entrenamiento de redes neuronales.   - \*\*Temas\*\*:     - Cómo usar GPUs y TPUs para entrenamiento de redes neuronales     - Optimización del uso de memoria y paralelismo     - Arquitecturas de hardware para deep learning. \### 10. \*\*Aplicaciones y Proyectos del Mundo Real\*\*   - \*\*Descripción\*\*: Aplicar lo aprendido en proyectos reales es fundamental para dominar el campo.   - \*\*Proyectos\*\*:     - Detección de fraudes, reconocimiento de voz, traducción automática, juegos de inteligencia artificial, análisis predictivo.     - Participar en competiciones de plataformas como Kaggle. \### Recomendaciones adicionales: \- \*\*Lecturas\*\*:  - "Deep Learning" de Ian Goodfellow y Yoshua Bengio.  - "Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow" de Aurélien Géron. \- \*\*Frameworks\*\*:  - \*\*TensorFlow\*\* y \*\*Keras\*\* para redes neuronales profundas.  - \*\*PyTorch\*\* para mayor flexibilidad y control en redes neuronales.
Muy buen curso la verdad, porque se alinea no mas con esta frase del profe al final " Intente hacerlo como a mi me hubiera gustado aprender redes neuronales" por que detrás de esa frase hay un trabajo enorme además de una abstracción gigante para poder enseñarlo así de fácil.
De lejos, esta entre mi top 5 de mejores cursos de Platzi, y eso que llevo como 50 ':)

Arquitecturas Avanzadas:

Explora arquitecturas de redes neuronales más avanzadas, como redes neuronales recurrentes (RNN), redes neuronales convolucionales (CNN), y transformers. Estas arquitecturas son fundamentales en tareas específicas, como procesamiento de lenguaje natural, visión por computadora y secuencias temporales.

Aprendizaje Profundo (Deep Learning):

Profundiza en el aprendizaje profundo, que implica la construcción y entrenamiento de modelos más complejos y profundos. Entiende conceptos como redes neuronales profundas, apilamiento de capas, y optimización de hiperparámetros.

Muchas gracias Profe, ud es un Crack!!!!

Answer’s te-st
Resumen
1.
Keras es un API que facilita el trabajo de crear redes neuronales, Keras usa el siguiente backend como su fuente:

Tensorflow
2.
Es uno de los grandes problemas de trabajar con deep learning
Overfitting
3.
¿En qué consiste el aprendizaje “profundo”?

Las capas reciben información de la capa anterior, las procesan y el resultado lo van pasando a las siguientes capas, haciendo un aprendizaje más detallado cuanto más capas existan en la red.
4.
¿Cuál es la función del BIAS en la neurona?
Dar más flexibilidad al modelo desplazando la respuesta lineal en los ejes
5.
¿En qué consisten las sumas ponderadas de la neurona?

Realizar un producto punto entre los datos de entrada y los pesos asociados a la neurona.

Es uno de los problemas que una neurona o perceptrón no puede solucionar, por sus propias limitantes
XOR

En una red neuronal las primeras capas obtienen la información más general de los datos y las últimas capas información más específica o detallada. Esta afirmación es:

Verdadera

¿Por qué son necesarias las funciones de activación?
Porque cada neurona devuelve una función lineal al igual que la suma de funciones lineales da como resultado otra función lineal, de ser así se obtiene el mismo resultado y es necesario deformar la función lineal.
9.
¿A qué función pertenece esta representación?

RELU.png
ReLU
10.
¿A qué función pertenece esta representación?

hipr.png
Tanh
11.
Es una función de activación muy útil que también cuenta con derivada y funciona perfecto cuando queremos resolver un problema de probabilidad binaria:

Sigmoid
12.
¿Cuál es el objetivo de la función de pérdida?

Identificar numéricamente el error o diferencia entre los valores predichos y los reales.

¿Es posible derivar la función de pérdida?

Verdadero
14.
¿Cuál es el principal objetivo del descenso del gradiente?
Encontrar paso a paso el mínimo global en la función de pérdida

Podemos decir que el learning rate “LP” es:
Un delta que me indica el tamaño de los “pasos” que se aplican al descenso del gradiente en cada iteración.

Uno de los conceptos inspirados en la física para evitar que el descenso del gradiente se estanque en un mínimo local es:
Momentum
17.
Una de las desventajas de tener un learning rate LR muy bajo es:
El entrenamiento de la red neuronal será más lento.

El objetivo del backpropagation es:

Distribuir el error a través de toda la red neuronal para actualizar sus pesos de acuerdo a dicho error.
19.
En numpy (np) podemos usar esta función para realizar un producto punto
matmul
20.
Como buena práctica en deep learning, ¿en cuántos sub sets de datos es mejor dividir nuestros datos?

3
21.
La función de pérdida recomendada para resolver un problema de clasificación binaria es:
Binary_crossentropy
22.
¿Qué función de activación en la última capa es recomendable para un problema de clasificación binaria?
Sigmoid
23.
La función de pérdida recomendada para resolver un problema de clasificación múltiple es:

categorical_crossentropy

¿Qué función de activación en la última capa es recomendable para un problema de clasificación múltiple?
Softmax
25.
La función de pérdida recomendada para resolver un problema de regresión con valores arbitrarios es:

MSE
26.
¿Qué función de activación en la última capa es recomendable para un problema de regresión?
Linear o None

Podemos clasificar a sets de datos de dos dimensiones como:
Matrices
28.
La función de pérdida Cross Entropy funciona mejor con problemas de:
Clasificación
29.
La regularización L1 consiste en incrementar el valor de la función de pérdida basándonos en:
Ninguna respuesta es correcta
REPASAR CLASE
30.
La capa de dropout consiste en:
Dejar en 0 aleatoriamente una fracción de las neuronas en la salida de la capa.
Ver menos

Muy bueno el curso, se agradece la facilidad con la que se dan temas complicados

Hola comunidad, espero que se encuentren bien, para solicitarles un favor ¿Me podrian indicar si hay un curso a seguir despues de este?

Muy buen curso, que te enseña como funciona una red neuronal y crea una desde cero, muchas gracias profe

Este profesor es excelente

Gracias profe, mucho mas motivada a seguir con lo que se viene!

Excelente el curso.

Muchas gracias a Carlos y a todos los compañeros por el conocimiento compartido, fue un curso excelente y entretenido, ahora resta seguir poniendo en práctica lo aprendido y ampliar los conocimientos.