CursosEmpresasBlogLiveConfPrecios

¿Qué hay más allá de la linealidad?

Clase 16 de 18 • Curso de Regresión Lineal con Python y scikit-learn

Clase anteriorSiguiente clase

Contenido del curso

Introducción al curso
  • 1
    Tu primera regresión lineal con scikit-learn

    Tu primera regresión lineal con scikit-learn

    09:00
  • 2
    Análisis de datos para tu primera regresión lineal

    Análisis de datos para tu primera regresión lineal

    09:49
  • 3
    Entrenando un modelo de regresión lineal con scikit-learn

    Entrenando un modelo de regresión lineal con scikit-learn

    14:01
Cómo funciona la regresión lineal
  • 4
    ¿Qué es la regresión lineal?

    ¿Qué es la regresión lineal?

    04:26
  • 5
    Cuándo utilizar un modelo de regresión lineal

    Cuándo utilizar un modelo de regresión lineal

    03:53
  • 6
    Función de pérdida y optimización: mínimos cuadrados

    Función de pérdida y optimización: mínimos cuadrados

    06:10
  • 7
    Evaluando el modelo: R^2 y MSE

    Evaluando el modelo: R^2 y MSE

    04:49
  • quiz de Cómo funciona la regresión lineal

Regresión lineal multivariable
  • 8
    Regresión lineal multivariable

    Regresión lineal multivariable

    03:45
  • 9
    Análisis de regresión multivariable

    Análisis de regresión multivariable

    14:20
Proyecto práctico
  • 10
    Regresión lineal para predecir los gastos médicos de pacientes

    Regresión lineal para predecir los gastos médicos de pacientes

    04:15
  • 11
    Exploración y preparación de datos

    Exploración y preparación de datos

    07:49
  • 12
    Análisis de correlación de los datos

    Análisis de correlación de los datos

    09:57
  • 13
    Entrenamiento del modelo

    Entrenamiento del modelo

    10:40
  • 14
    Evaluando el modelo

    Evaluando el modelo

    13:20
  • 15
    Mejorando el modelo

    Mejorando el modelo

    13:59
  • quiz de Proyecto práctico

Pasos siguientes
  • 16
    ¿Qué hay más allá de la linealidad?

    ¿Qué hay más allá de la linealidad?

    04:26
  • 17
    Siguientes pasos en modelos de inteligencia artificial

    Siguientes pasos en modelos de inteligencia artificial

    02:11
  • 18

    Comparte tu proyecto de regresión lineal y certifícate

    00:00
    Eduardo Carrillo

    Eduardo Carrillo

    student•
    hace 4 años

    sería excelente un curso avanzado de machine learning

      Víctor Alejandro Regueira Romero

      Víctor Alejandro Regueira Romero

      student•
      hace 3 años

      ¡Ya lo hay! La escuela de Data Science e Inteligencia Artificial tiene un montón de cursos avanzados.

      Gerardo Mayel Fernández Alamilla

      Gerardo Mayel Fernández Alamilla

      student•
      hace 2 años

      aquí hay algunos, también hay otros muy buenos que aunque son más antiguos son muy completos, en el buscador de platzi hay varios recursos más

      https://platzi.com/cursos/scikitlearn/ https://platzi.com/cursos/laboratorio-machine-learning-prod/ https://platzi.com/cursos/ml-ops/ https://platzi.com/cursos/regresion-logistica/ https://platzi.com/cursos/clustering/

    Augusto Mas

    Augusto Mas

    student•
    hace 3 años

    Si por favor un curso avanzado de Machine Learning!

    machinelearning.png

      Juan R. Vergara M.

      Juan R. Vergara M.

      student•
      hace 3 años

      😅

      Gerardo Mayel Fernández Alamilla

      Gerardo Mayel Fernández Alamilla

      student•
      hace 2 años

      aquí hay algunos, también hay otros muy buenos que aunque son más antiguos son muy completos, en el buscador de platzi hay varios recursos más

      https://platzi.com/cursos/scikitlearn/ https://platzi.com/cursos/laboratorio-machine-learning-prod/ https://platzi.com/cursos/ml-ops/ https://platzi.com/cursos/regresion-logistica/ https://platzi.com/cursos/clustering/

    Cristian Enrique Cuevas Mercado

    Cristian Enrique Cuevas Mercado

    student•
    hace 4 años

    sin duda es necesario un curso avanzado de modelos, pero rescatando la teoría Estadística, al fin y al cabo los comando están en la documentación oficial de la librería

    Andrés Fernández

    Andrés Fernández

    student•
    hace 4 años

    Por supuesto que necesitamos más cursos avanzados! Que está bien ampliar los básicos, pero hay que equilibrar y Platzi aún tiene grandes oportunidades en ese sentido!

      Gerardo Mayel Fernández Alamilla

      Gerardo Mayel Fernández Alamilla

      student•
      hace 2 años

      aquí hay algunos, también hay otros muy buenos que aunque son más antiguos son muy completos, en el buscador de platzi hay varios recursos más

      https://platzi.com/cursos/scikitlearn/ https://platzi.com/cursos/laboratorio-machine-learning-prod/ https://platzi.com/cursos/ml-ops/ https://platzi.com/cursos/regresion-logistica/ https://platzi.com/cursos/clustering/

    Rafael Rivera

    Rafael Rivera

    student•
    hace 3 años

    Claro que necesitamos mas cursos avanzados, me uno a la petición.

      Alberto Gonzalez

      Alberto Gonzalez

      student•
      hace 3 años

      Acá estoy yo también! Desde Portugal me uno al pedido!

    Mauricio Combariza

    Mauricio Combariza

    student•
    hace 3 años

    Yo lo que veo es que antes de tener cursos más abanzados, seria mejor profundizar en las bases. Se dejan muchas cosas para que se hagan de forma mecanica sin una base real de por que se debe hacer de una forma u otra.

    Antonio Demarco Bonino

    Antonio Demarco Bonino

    student•
    hace un año

    Por supuesto que todos nos quedamos esperando ese curso avanzado de ML. De mientras dejo estos conceptos para que todos los que quieran los estudien con un buen detenimiento:

    1. Modelo: Regresión Polinomial
      • Se usa para: Capturar relaciones no lineales en los datos aumentando el grado de las variables de entrada (como X², X³).
      • Ejemplo: Modelar la relación entre la edad y el ingreso donde el ingreso crece rápidamente al principio, se estabiliza en la madurez y decrece en la vejez.
    2. Modelo: Árboles de Decisión
      • Se usa para: Dividir los datos en subconjuntos más pequeños, tomando decisiones basadas en las características más importantes.
      • Ejemplo: Predecir si un paciente tiene una enfermedad basándose en parámetros médicos como presión sanguínea y colesterol.
    3. Modelo: Random Forest
      • Se usa para: Mejorar la predicción mediante la combinación de múltiples árboles de decisión (bagging), reduciendo el sobreajuste.
      • Ejemplo: Predecir el precio de una casa utilizando múltiples árboles de decisión con características como el número de habitaciones, tamaño, y ubicación.
    4. Modelo: Gradient Boosting
      • Se usa para: Crear un modelo secuencial donde cada árbol nuevo corrige los errores del anterior, mejorando la precisión.
      • Ejemplo: Clasificar correos electrónicos como spam o no spam basándose en una serie de reglas aprendidas de iteraciones anteriores.
    5. Modelo: Regresión Logística
      • Se usa para: Clasificar eventos binarios, como sí/no o verdadero/falso, a partir de una o varias variables independientes.
      • Ejemplo: Determinar si un cliente comprará o no un producto basado en su historial de compras y comportamiento de navegación.
    6. Modelo: Redes Neuronales
      • Se usa para: Capturar relaciones extremadamente complejas entre las variables de entrada y salida mediante capas neuronales conectadas.
      • Ejemplo: Reconocimiento de imágenes donde se aprende a identificar objetos como coches o personas en fotografías.
    7. Modelo: Máquinas de Soporte Vectorial (SVM) con Kernel
      • Se usa para: Transformar datos no lineales en un espacio dimensional superior, haciéndolos linealmente separables.
      • Ejemplo: Clasificar tipos de flores en función de sus características como el largo y ancho de los pétalos y sépalos.
    8. Modelo: Regresión Ridge
      • Se usa para: Ajustar un modelo lineal controlando el sobreajuste mediante la penalización de coeficientes grandes.
      • Ejemplo: Predecir los precios de propiedades ajustando un modelo que no dependa tanto de características influyentes extremas.
    9. Modelo: Regresión Lasso
      • Se usa para: Similar a Ridge, pero también puede reducir coeficientes a cero, seleccionando automáticamente las variables más importantes.
      • Ejemplo: Seleccionar las características clave para predecir los ingresos anuales de una persona eliminando aquellas irrelevantes.
    10. Modelo: Elastic Net
    • Se usa para: Combinar Ridge y Lasso para ajustar un modelo que penaliza tanto coeficientes grandes como innecesarios.
    • Ejemplo: Predecir el rendimiento académico de estudiantes basándose en múltiples factores, eliminando variables irrelevantes y limitando el sobreajuste.
    Diego Moreno Gallón

    Diego Moreno Gallón

    student•
    hace 3 años

    También existe la aplicación de transformaciones de kernel para seguir usando modelos lineales. Con la idea de los kernels se puede explicar de manera muy bonita lo que es una red neuronal. Les recomiendo el libro "deep learning book" de ian goodfellow.

    Ricardo Félix Díaz López

    Ricardo Félix Díaz López

    student•
    hace 3 años

    Este es uno de los cursos mas top que he tomado en plataforma de Platzi, seria genial que pudieran hacer un curso de machine learning avanzado.

      Matías Collado

      Matías Collado

      student•
      hace 2 años

      Entonces es de muy bajo nivel la información de platzi.

    Andres felipe Rojas parra

    Andres felipe Rojas parra

    student•
    hace 2 años

    esos temas de curso "avanzado" deberían estar en el curso básico son esenciales para que uno pueda tener una comprensión completa detrás de lo que pasa en el código...

    1. teoría
    2. práctica
    Mauricio Escobar

    Mauricio Escobar

    student•
    hace 3 años

    Me uno a la petición para un curso avanzado! Sin duda lo tomaría

    Dick Saide Suárez Blanco

    Dick Saide Suárez Blanco

    student•
    hace 3 años

    😎----->Análisis de regresión multivariable<---- Todo este tiempo hemos aprendido la manera en la que se manejan los modelos de regresion lineal, mas cuando no se tiene un modelo asi, hay que acudir a los Modelos Polinomiales. Donde ya no es solo variables simples como x1 o x2 sino, tamb con variables con exponentes. Haciendo asi que las lineas sean curvas (en forma de ondas). Sin embargo, con estas graficas no solo se puede llegar a predecir un modelo, sino que en algunos casos su precision llega a ser incluso mejor que la de un modelo de regresion lineal. Ya qu edebido a la variaza que estos modelos tienen, llegan a cubrir mucho mejor la varianza que hay en los resultados. A este tipo de modelos se le conoce como de varianza, y a los tradicionales que hemos visto en este curso se les llama de sesgo.

    σ Despues, Luis explica que al usar machine learnig, buscamos usar modelos de regularizacion para reducir el sesgo y varianza que tenga nuestro modelo. Lo que se hace, entonces, es reducir la vairanza que tenga un modelo, aunque esto aumente su sesgo, ya que es aceptable la inperfeccion en un sesgo.

    σ Conitnuando, la manera en la que se agrega un modelo de regularizacion, es a traves de poner una penalizacion

    Víctor Alejandro Regueira Romero

    Víctor Alejandro Regueira Romero

    student•
    hace 3 años

    Me encanta que siempre nos permitan conocer que más herramientas nos sirven a futuro.

    Ciertamente la Regresión lineal es indispensable, pero conocer la mayoría mejora nuestro catálogo de modelos.

    Joel Orellana

    Joel Orellana

    student•
    hace 3 años

    para ser un curso introductorio, esta super bueno!!!

    Diego Alejandro Torreblanca Cordova

    Diego Alejandro Torreblanca Cordova

    student•
    hace 4 años

    Con respecto a lo que mencionas, sería útil un curso más avanzado del tema. Recién estuve desarrollando un modelo con regresión multivariable para estimar las métricas de un problema pero los resultados son muy "parejos" y suena buena la propuesta de regularización y uso de polinomios, hubiera sido bueno tener ejemplos prácticos de eso

    Anthony Stive Tomasto Montañez

    Anthony Stive Tomasto Montañez

    student•
    hace 4 años

    Claro que se necesitaría mas cursos como estos, donde expliquen la teoría de estadística y la aplicación con machine learning, como: Regresión Logística , Árbol de decisión , etc. Por otro lado, me gusto mucho este curso.

    Pedro Alvarado Garcia

    Pedro Alvarado Garcia

    student•
    hace 4 años

    Sin duda es lo que le falta a platzi para ser aún mejor, cursos avanzados y de larga duración.

    Últimamente los cursos son muy básicos y su duración es muy baja. Así que abogo por cursos avanzados y más largos.

    Luis Francisco Rascón Carrasco

    Luis Francisco Rascón Carrasco

    student•
    hace 3 años

    Si, por su puesto me gustaría ver mas curso avanzados sobre machine learning y toda una escuela si es posible

    Bryan Castano

    Bryan Castano

    student•
    hace 5 días
    •
    editado

    Hola Chicos, esto para Reflexionar.

    IMPORTANT!

    Vamos a explorar juntos la Ecuación de Costo y la Geometría (círculo vs. rombo). proque su geometria deice mucho sobre Regularizacion l1 vs l2.

    El Escenario de Optimización :

    Como mencionamos, la regresión regularizada busca el conjunto de coeficientes ($\beta$) que minimice esta fórmula:

    $$\min_{\beta} \left[ \text{MSE}(\beta) + \lambda \times \text{Penalización}(\beta) \right]$$

    1. $\text{MSE}(\beta)$: Es el Error Cuadrático Medio. Es la parte que quiere que el modelo se ajuste bien a los datos.
    2. $\lambda$ (o alpha): Es la fuerza de la penalización.
    3. $\text{Penalización}(\beta)$: Es lo que mantiene los coeficientes bajo control.

    Para simplificar la visualización geométrica, podemos reescribir la minimización como un problema de optimización con restricciones (constrained optimization).

    En lugar de minimizar el costo total, buscamos los coeficientes $\beta$ que minimizan el $\text{MSE}$, sujeto a una restricción sobre la suma de los coeficientes:

    • Ridge (L2): Minimizar $\text{MSE}(\beta)$ sujeto a $\sum_{j=1}^{p} \beta_{j}^{2} \le c$
    • Lasso (L1): Minimizar $\text{MSE}(\beta)$ sujeto a $\sum_{j=1}^{p} |\beta_{j}| \le c$

    Aquí, $c$ es un valor que está inversamente relacionado con $\lambda$ (un $\lambda$ más grande implica un $c$ más pequeño).

    La Intuición Geométrica (El Porqué del Cero)

    En un gráfico donde los ejes son los coeficientes del modelo ($\beta_1, \beta_2$), la solución óptima es el punto donde la curva del error (MSE) toca por primera vez la región de restricción (la penalización).

    1. La Región de Restricción L2 (Ridge) ⚪

    La restricción $\sum_{j=1}^{p} \beta_{j}^{2} \le c$ define una región circular (o una esfera/hiperesfera en más dimensiones).

    • Forma: Un círculo (o esfera) beta~².
    • Efecto: El punto de mejor ajuste (mínimo MSE) generalmente se encuentra fuera de este círculo. Al ser forzado a moverse a la frontera del círculo, los coeficientes se encogen de manera uniforme. Como el círculo no tiene esquinas, es muy poco probable que el punto de contacto ocurra exactamente sobre el eje, donde un coeficiente es cero. Siempre se acercan, pero no llegan a cero.

    2. La Región de Restricción L1 (Lasso) ♦️

    La restricción Sumatoria de j =1 hasta p, ||beta|| &lt; c ,define una región en forma de diamante o rombo.

    • Forma: Un rombo (o un octaedro en 3D).
    • Efecto Clave: ¡El rombo tiene esquinas! Las esquinas del rombo se encuentran precisamente sobre los ejes, lo que significa que en esos puntos, uno de los coeficientes es cero .

    El área de menor error (las líneas de contorno elípticas del MSE) es mucho más probable que toque primero una de estas esquinas del rombo que cualquier otro punto en su borde. Al tocar la esquina, la solución se establece con el coeficiente correspondiente a cero, realizando la selección de características.

    ¿qué p asaría si el valor de lambda fuera cero ($lambda = 0$)? ¿Cómo se verían en el gráfico la región de restricción L1 o L2?

    RTA: Si lambda (λ) fuera 0, la penalización por regularización desaparecería. En el gráfico, las regiones de restricción L1 o L2 (diamante o círculo) se expandirían infinitamente, dejando que el modelo encuentre los coeficientes que minimicen solo el error de mínimos cuadrados sin ninguna restricción.

    Cuando $\lambda = 0$, la fuerza de la restricción desaparece, y la región de restricción L1 o L2 se vuelve infinita. La solución, en ambos casos, recae en el centro de las elipses de error del MSE. Esto es, de hecho, la solución exacta de la Regresión por Mínimos Cuadrados Ordinarios (OLS), sin regularización.

    a Geometría en Acción: Rombo vs. Círculo

    La comprensión de la geometría es clave. Enfocándonos en el L1 (el rombo ♦️) y su habilidad para anular coeficientes:

    1. La forma del L2 (Círculo/Esfera): La frontera es suave y curva. Si un coeficiente es empujado cerca de cero, el otro también lo es, pero el punto de contacto entre la elipse de error y el círculo rara vez caerá exactamente sobre un eje (donde $\beta_j = 0$).
    2. La forma del L1 (Rombo/Octaedro): La frontera tiene esquinas agudas sobre los ejes. Estos puntos representan soluciones donde al menos un coeficiente es cero.

    El Impacto de las Esquinas

    La naturaleza convexa de las elipses de error (MSE) hace que sea mucho más probable que el punto óptimo de contacto ocurra en una de estas esquinas en lugar de en el medio de un borde.

    Piensa en esto: si estás buscando el punto de menor error y la restricción te obliga a elegir un punto dentro o sobre el rombo, el lugar donde el error es mínimo es muy a menudo una esquina, lo que automáticamente implica que el coeficiente en ese eje se ha anulado. Esta anulación es lo que llamamos modelo disperso (sparse model) y es el mecanismo de selección de características.

    La regresión lineal simple puede sobreajustarse (overfitting) si hay ruido o muchas variables: el modelo se ajusta demasiado a los datos de entrenamiento y falla en nuevos datos. La regularización añade una "penalización" a los coeficientes grandes para simplificar el modelo y evitar overfitting.

    • Función de costo general: En OLS, minimizamos SSE. Con regularización, minimizamos SSE + λ * Penalización, donde λ es un hiperparámetro que controla la fuerza de la penalización.

    5. Regresión Ridge (L2 Regularization)

    • Idea: Penaliza la suma de los cuadrados de los coeficientes (||β||²). Esto encoge los coeficientes hacia cero, pero no los hace exactamente cero. Es útil cuando hay multicolinealidad (variables correlacionadas).
    • Ecuación: Minimizar SSE + λ Σ(β_j²) para j=1 a k (no penaliza β₀).
    • Efecto: Los coeficientes se hacen más pequeños, reduciendo la varianza del modelo.
    • Entrenamiento: Similar a OLS, pero la solución es β = (X^T X + λI)^(-1) X^T Y (donde I es la matriz identidad). Esto hace que la matriz sea invertible incluso con multicolinealidad.

    Regresión Lasso (L1 Regularization)

    • Idea: Penaliza la suma absoluta de los coeficientes (|β|). Esto puede hacer que algunos coeficientes sean exactamente cero, actuando como selección de características (feature selection).
    • Ecuación: Minimizar SSE + λ Σ|β_j| para j=1 a k.
    • Efecto: Elimina variables irrelevantes, haciendo el modelo más interpretable y sparse.
    • Entrenamiento: No tiene solución cerrada como Ridge; se usa optimización numérica (e.g., gradiente descendente o coordinate descent). En Python, scikit-learn lo maneja.

    L1 vs L2: Comparación

    • Penalización:
      • L1 (Lasso): Suma absoluta (|β₁| + |β₂| + ...). Forma un "diamante" en el espacio de coeficientes, lo que tiende a poner coeficientes en cero (esquinas).
      • L2 (Ridge): Suma de cuadrados (β₁² + β₂² + ...). Forma un "círculo", encoge coeficientes uniformemente sin eliminarlos.
    • Diferencias clave:
      • Selección de características: L1 sí (puede eliminar variables). L2 no (solo las encoge).
      • Multicolinealidad: L2 es mejor porque distribuye la penalización entre variables correlacionadas. L1 elige una y pone las otras a cero.
      • Interpretabilidad: L1 da modelos más simples (menos variables).
      • Sensibilidad: L1 es más robusto a outliers en coeficientes; L2 es más estable.
      • Cuándo usar:
        • Usa Lasso (L1) si sospechas que muchas variables son irrelevantes (e.g., en datasets con miles de features).
        • Usa Ridge (L2) si todas las variables son relevantes pero hay correlaciones altas.
        • Hay un híbrido: Elastic Net (L1 + L2) para lo mejor de ambos.
    • Elección de λ: Usa validación cruzada (cross-validation) para probar diferentes valores y elegir el que minimice el error en datos de validación.

    Es importante la vision geometrica para entneder el mecanisco de cada una l1 vs l2, y su efecto sobre los coeficientes betas.

    Mario Alexander Vargas Celis

    Mario Alexander Vargas Celis

    student•
    hace 4 meses

    Más allá de la linealidad en los modelos de regresión, existen métodos que permiten capturar relaciones más complejas y no lineales entre las variables. Aquí te explico las principales alternativas y conceptos clave:

    🔹 1. Regresión Polinómica

    • Transforma las variables originales en potencias (cuadrado, cubo, etc.).
    • Ejemplo: en vez de ajustar una línea recta, ajusta una curva.
    • Útil cuando la relación entre X e Y es curvilínea.

    from sklearn.preprocessing import PolynomialFeatures from sklearn.linear_model import LinearRegression

    poly = PolynomialFeatures(degree=2) X_poly = poly.fit_transform(X) model = LinearRegression().fit(X_poly, y)

    🔹 2. Modelos No Paramétricos

    • Árboles de Decisión, Random Forest, Gradient Boosting y XGBoost: modelan relaciones complejas sin suponer una forma funcional explícita.
    • Flexibles, pero pueden sobreajustar si no se regulan.

    🔹 3. Regresión con Splines

    • Divide el dominio de la variable en tramos y ajusta funciones diferentes (por ejemplo, polinomios) en cada tramo.
    • Es suave y flexible para capturar formas no lineales.

    🔹 4. Modelos Basados en Kernels

    • SVM con kernel RBF, Kernel Ridge Regression, entre otros.
    • Usan transformaciones no lineales implícitas para separar/predicir datos en espacios de mayor dimensión.

    🔹 5. Redes Neuronales

    • Capturan relaciones altamente no lineales.
    • Útiles con muchos datos y relaciones complejas.
    • Requieren más recursos y tiempo de entrenamiento.

    🔹 6. Transformaciones de Variables

    • Aplicar funciones como logaritmos, raíces, exponenciales a las variables para linealizar relaciones no lineales.

    📌 En resumen:

    Cuando la relación entre variables no es lineal, puedes:

    • Usar regresión polinómica.
    • Aplicar transformaciones.
    • O directamente cambiar a modelos más flexibles, como árboles o redes neuronales.

Escuelas

  • Desarrollo Web
    • Fundamentos del Desarrollo Web Profesional
    • Diseño y Desarrollo Frontend
    • Desarrollo Frontend con JavaScript
    • Desarrollo Frontend con Vue.js
    • Desarrollo Frontend con Angular
    • Desarrollo Frontend con React.js
    • Desarrollo Backend con Node.js
    • Desarrollo Backend con Python
    • Desarrollo Backend con Java
    • Desarrollo Backend con PHP
    • Desarrollo Backend con Ruby
    • Bases de Datos para Web
    • Seguridad Web & API
    • Testing Automatizado y QA para Web
    • Arquitecturas Web Modernas y Escalabilidad
    • DevOps y Cloud para Desarrolladores Web
  • English Academy
    • Inglés Básico A1
    • Inglés Básico A2
    • Inglés Intermedio B1
    • Inglés Intermedio Alto B2
    • Inglés Avanzado C1
    • Inglés para Propósitos Específicos
    • Inglés de Negocios
  • Marketing Digital
    • Fundamentos de Marketing Digital
    • Marketing de Contenidos y Redacción Persuasiva
    • SEO y Posicionamiento Web
    • Social Media Marketing y Community Management
    • Publicidad Digital y Paid Media
    • Analítica Digital y Optimización (CRO)
    • Estrategia de Marketing y Growth
    • Marketing de Marca y Comunicación Estratégica
    • Marketing para E-commerce
    • Marketing B2B
    • Inteligencia Artificial Aplicada al Marketing
    • Automatización del Marketing
    • Marca Personal y Marketing Freelance
    • Ventas y Experiencia del Cliente
    • Creación de Contenido para Redes Sociales
  • Inteligencia Artificial y Data Science
    • Fundamentos de Data Science y AI
    • Análisis y Visualización de Datos
    • Machine Learning y Deep Learning
    • Data Engineer
    • Inteligencia Artificial para la Productividad
    • Desarrollo de Aplicaciones con IA
    • AI Software Engineer
  • Ciberseguridad
    • Fundamentos de Ciberseguridad
    • Hacking Ético y Pentesting (Red Team)
    • Análisis de Malware e Ingeniería Forense
    • Seguridad Defensiva y Cumplimiento (Blue Team)
    • Ciberseguridad Estratégica
  • Liderazgo y Habilidades Blandas
    • Fundamentos de Habilidades Profesionales
    • Liderazgo y Gestión de Equipos
    • Comunicación Avanzada y Oratoria
    • Negociación y Resolución de Conflictos
    • Inteligencia Emocional y Autogestión
    • Productividad y Herramientas Digitales
    • Gestión de Proyectos y Metodologías Ágiles
    • Desarrollo de Carrera y Marca Personal
    • Diversidad, Inclusión y Entorno Laboral Saludable
    • Filosofía y Estrategia para Líderes
  • Diseño de Producto y UX
    • Fundamentos de Diseño UX/UI
    • Investigación de Usuarios (UX Research)
    • Arquitectura de Información y Usabilidad
    • Diseño de Interfaces y Prototipado (UI Design)
    • Sistemas de Diseño y DesignOps
    • Redacción UX (UX Writing)
    • Creatividad e Innovación en Diseño
    • Diseño Accesible e Inclusivo
    • Diseño Asistido por Inteligencia Artificial
    • Gestión de Producto y Liderazgo en Diseño
    • Diseño de Interacciones Emergentes (VUI/VR)
    • Desarrollo Web para Diseñadores
    • Diseño y Prototipado No-Code
  • Contenido Audiovisual
    • Fundamentos de Producción Audiovisual
    • Producción de Video para Plataformas Digitales
    • Producción de Audio y Podcast
    • Fotografía y Diseño Gráfico para Contenido Digital
    • Motion Graphics y Animación
    • Contenido Interactivo y Realidad Aumentada
    • Estrategia, Marketing y Monetización de Contenidos
  • Desarrollo Móvil
    • Fundamentos de Desarrollo Móvil
    • Desarrollo Nativo Android con Kotlin
    • Desarrollo Nativo iOS con Swift
    • Desarrollo Multiplataforma con React Native
    • Desarrollo Multiplataforma con Flutter
    • Arquitectura y Patrones de Diseño Móvil
    • Integración de APIs y Persistencia Móvil
    • Testing y Despliegue en Móvil
    • Diseño UX/UI para Móviles
  • Diseño Gráfico y Arte Digital
    • Fundamentos del Diseño Gráfico y Digital
    • Diseño de Identidad Visual y Branding
    • Ilustración Digital y Arte Conceptual
    • Diseño Editorial y de Empaques
    • Motion Graphics y Animación 3D
    • Diseño Gráfico Asistido por Inteligencia Artificial
    • Creatividad e Innovación en Diseño
  • Programación
    • Fundamentos de Programación e Ingeniería de Software
    • Herramientas de IA para el trabajo
    • Matemáticas para Programación
    • Programación con Python
    • Programación con JavaScript
    • Programación con TypeScript
    • Programación Orientada a Objetos con Java
    • Desarrollo con C# y .NET
    • Programación con PHP
    • Programación con Go y Rust
    • Programación Móvil con Swift y Kotlin
    • Programación con C y C++
    • Administración Básica de Servidores Linux
  • Negocios
    • Fundamentos de Negocios y Emprendimiento
    • Estrategia y Crecimiento Empresarial
    • Finanzas Personales y Corporativas
    • Inversión en Mercados Financieros
    • Ventas, CRM y Experiencia del Cliente
    • Operaciones, Logística y E-commerce
    • Gestión de Proyectos y Metodologías Ágiles
    • Aspectos Legales y Cumplimiento
    • Habilidades Directivas y Crecimiento Profesional
    • Diversidad e Inclusión en el Entorno Laboral
    • Herramientas Digitales y Automatización para Negocios
  • Blockchain y Web3
    • Fundamentos de Blockchain y Web3
    • Desarrollo de Smart Contracts y dApps
    • Finanzas Descentralizadas (DeFi)
    • NFTs y Economía de Creadores
    • Seguridad Blockchain
    • Ecosistemas Blockchain Alternativos (No-EVM)
    • Producto, Marketing y Legal en Web3
  • Recursos Humanos
    • Fundamentos y Cultura Organizacional en RRHH
    • Atracción y Selección de Talento
    • Cultura y Employee Experience
    • Gestión y Desarrollo de Talento
    • Desarrollo y Evaluación de Liderazgo
    • Diversidad, Equidad e Inclusión
    • AI y Automatización en Recursos Humanos
    • Tecnología y Automatización en RRHH
  • Finanzas e Inversiones
    • Fundamentos de Finanzas Personales y Corporativas
    • Análisis y Valoración Financiera
    • Inversión y Mercados de Capitales
    • Finanzas Descentralizadas (DeFi) y Criptoactivos
    • Finanzas y Estrategia para Startups
    • Inteligencia Artificial Aplicada a Finanzas
    • Domina Excel
    • Financial Analyst
    • Conseguir trabajo en Finanzas e Inversiones
  • Startups
    • Fundamentos y Validación de Ideas
    • Estrategia de Negocio y Product-Market Fit
    • Desarrollo de Producto y Operaciones Lean
    • Finanzas, Legal y Fundraising
    • Marketing, Ventas y Growth para Startups
    • Cultura, Talento y Liderazgo
    • Finanzas y Operaciones en Ecommerce
    • Startups Web3 y Blockchain
    • Startups con Impacto Social
    • Expansión y Ecosistema Startup
  • Cloud Computing y DevOps
    • Fundamentos de Cloud y DevOps
    • Administración de Servidores Linux
    • Contenerización y Orquestación
    • Infraestructura como Código (IaC) y CI/CD
    • Amazon Web Services
    • Microsoft Azure
    • Serverless y Observabilidad
    • Certificaciones Cloud (Preparación)
    • Plataforma Cloud GCP

Platzi y comunidad

  • Platzi Business
  • Live Classes
  • Lanzamientos
  • Executive Program
  • Trabaja con nosotros
  • Podcast

Recursos

  • Manual de Marca

Soporte

  • Preguntas Frecuentes
  • Contáctanos

Legal

  • Términos y Condiciones
  • Privacidad
  • Tyc promociones
Reconocimientos
Reconocimientos
Logo reconocimientoTop 40 Mejores EdTech del mundo · 2024
Logo reconocimientoPrimera Startup Latina admitida en YC · 2014
Logo reconocimientoPrimera Startup EdTech · 2018
Logo reconocimientoCEO Ganador Medalla por la Educación T4 & HP · 2024
Logo reconocimientoCEO Mejor Emprendedor del año · 2024
De LATAM conpara el mundo
YoutubeInstagramLinkedInTikTokFacebookX (Twitter)Threads